¿Puede una demanda por infracción de derechos de autor ser “retada” por una norma de privacidad? Para OpenAI, que enfrenta una demanda por violentar los derechos de autor del New York Times y otros medios de comunicación, la respuesta es sí. Es por esto que el 12 de noviembre introdujo un documento dirigido a la jueza Ona T. Wang, magistrada de los Estados Unidos para el Distrito Sur de Nueva York, en el que solicitó que revocara una orden que le exige entregar 20 millones de registros de chat anónimos de ChatGPT, soliditados por el NYT, en el contexto de su causa en contra de ellos.
La creadora de ChatGPT insiste en que ceder dichas conversaciones con su IA expondrá las conversaciones privadas de sus usuarios y, por ende, violaría sus derechos a la protección de sus datos personales, especialmente porque dichos registros podrían revelar información confidencial y porque –según ellos– 99,99 % de las transcripciones ni siquiera guardan relación con la supuesta infracción de copyright de las que se les acusa.
La orden que obligaba a OpenAI a entregar dichos chats fue emitida por la misma jueza Wang, quien les dio como deadline el viernes 14 de noviembre. Según la magistrada, la privacidad de los usuarios de dichas conversaciones estaría protegida por la “desidentificación exhaustiva” de OpenAI, cuyo Director de Seguridad de la Información dijo que compartirlos violaría las protecciones de privacidad y seguridad de los chateadores.
Relacionado: Inteligencia artificial generativa vs derechos de autor: un conflicto que redefine la industria musical y creativa
De hecho, Dane Stuckey (el director de seguridad), dijo, en una carta abierta titulada “Luchando contra la invasión de la privacidad del usuario por parte del New York Times”, recordó que no solo “la confianza, la seguridad y la privacidad guían cada producto y decisión que tomamos” sino que sus más de 800 millones de usuarios semanales confían a ChatGPT “algunos de los aspectos más personales de su vida”, además de conversaciones confidenciales, archivos, credenciales, recuerdos e información de pago, que son tratados “como la información más sensible de su vida digital”, por lo que se han abocado a reforzar sus medidas de privacidad.
Por esto, para ellos, la pretendida intromisión del NYT y los demás medios demandantes en dichos chats, que alegan que el acceso a estas conversaciones les podría dar pruebas de que se ha usado ChatGPT para eludir su muro de pago, pone a prueba su responsabilidad en esta materia y en un entorno en el que “las protecciones de privacidad y seguridad deben fortalecerse a medida que la IA se integra más profundamente en la vida de las personas”, y no al revés. No obstante:
Esta exigencia ignora las protecciones de privacidad vigentes desde hace tiempo, contraviene las prácticas de seguridad básicas y nos obligaría a entregar decenas de millones de conversaciones altamente personales (...). Sin embargo, si el Times logra su cometido, nos veremos obligados a entregar los mismos datos que protegemos —sus datos— a terceros, incluidos los abogados y consultores contratados del Times, dijeron.
Recomendamos: El Studio Ghibli vs la IA, imitar no siempre es admirar
Este no es el primer intento
Antes de que el NYT le pidiera al tribunal revisar los chats de OpenAI, hubo una orden judicial de mayo que exigió a la empresa el conservar indefinidamente el contenido de ChatGPT y la API de los usuarios, programados para mantenerse en el servidor solo por 30 días, cuya vigencia concluyó este 26 de septiembre y empezó en abril. Esta orden surgió de la aparente necesidad del NYT de revisar dichos datos, para obtener pruebas de la infracción de sus derechos de autor en el chatbot.
Esta primera orden de conservación masiva estableció un mandato sin precedentes para la gestión de datos de IA y, además, exigía a la empresa conservar y separar todos los datos de registro de salida que normalmente se eliminarían en adelante, independientemente de las solicitudes de los usuarios o las políticas internas de privacidad, bajo el supuesto de que permitir su borrado destruiría también cualquier prueba que el NYT pudiera usar para sustentar su demanda.
OpenAI argumentó que la orden de preservación la obligaría a “ignorar compromisos legales, contractuales, regulatorios y éticos con cientos de millones de personas”, lo cual representa un conflicto directo con normas de privacidad de datos personales como el RGPD. Estos datos abarcaban, como las conversaciones a las que el tribunal les está exigiendo tener acceso, Estados Unidos, el Espacio Económico Europeo y Reino Unido.
Para leer: Campbell’s demanda a Jane Foodie por imitar el trade dress de sus latas de sopa
Como esta última negativa, la empresa de Sam Altman se negó a entregarle estos datos al NYT y la Corte, manteniéndolos únicamente para su equipo legal y de seguridad y para el cumplimiento exclusivo de sus obligaciones legales.
Esto contradice fundamentalmente los compromisos de privacidad que hemos asumido con nuestros usuarios. Abandona normas de privacidad establecidas desde hace mucho tiempo y debilita la protección de la privacidad. (...) Creemos firmemente que esto es un abuso de poder por parte del New York Times, señalaron en esa oportunidad.
Si los datos pedidos hubiesen sido entregados, los datos de los suscriptores de ChatGPT Free, Plus, Pro o Team hubiesen sido afectados, así como los de los usuarios de la API de OpenAI. Ahora, de entregarse los chats solicitados, cualquier persona que haya usado ChatGPT desde 2022, en cualquier lugar del mundo, se enfrenta a la posibilidad de que sus conversaciones personales sean entregadas al NYT para que las examine “a su antojo en una investigación explosiva y sin fundamento”, apuntó la empresa, que le recordó en su contestación a la Jueza Wang que la petición “sienta un precedente peligroso”, puesto que “sugiere que cualquiera que presente una demanda contra una empresa de IA puede exigir la presentación de decenas de millones de conversaciones sin antes determinar su relevancia.”
Así no funciona el proceso de descubrimiento de pruebas en otros casos: los tribunales no permiten que los demandantes que demandan a Google examinen los correos electrónicos privados de decenas de millones de usuarios de Gmail, independientemente de su relevancia. Y así tampoco debería funcionar el proceso de descubrimiento de pruebas para las herramientas de IA generativa. Al contrario: la privacidad del usuario es aún más esencial en este caso, indicaron.
Y en un reverse UNO inteligente, ya que el demandante más notorio es el NYT, le dijo a la Corte que exigir revisar chats privados, aunque estén anonimizados, “no es como debería funcionar el descubrimiento en las herramientas de IA generativa. Al contrario: la privacidad del usuario es aún más esencial en este caso”, y para esto citó un muy reciente artículo de opinión del NYT (If You Tell ChatGPT Your Secrets, Will They Be Kept Safe?) en el que el autor, tomando como ejemplo un reciente caso criminal en el que se revisaron las consultas y confesiones privadas que un pirómano le hizo al chat, y que usaron como pruebas en su contra, calificó como un hecho “preocupante” y una “advertencia” para el sistema legal estadounidense.
“A medida que las personas recurren cada vez más a las herramientas de chat con IA como confidentes, terapeutas y asesores, necesitamos urgentemente una nueva forma de protección jurídica”, escribió el columnista, antes de añadir algo fundamental:
La creación de un nuevo privilegio sigue la tendencia legal de adaptarse a nuevas formas de confianza. El privilegio de confidencialidad entre psicoterapeuta y paciente fue reconocido formalmente recién en 1996, cuando la Corte Suprema reconoció el valor terapéutico de la confidencialidad; la misma lógica se aplica ahora a la IA: el beneficio social de la interacción sincera supera el costo de la pérdida ocasional de evidencia.
Dejar estas conversaciones sin protección legal equivale a propiciar un régimen en el que los ciudadanos teman que su introspección digital pueda ser utilizada algún día en su contra.
Clica aquí: ¿En qué aspectos la inteligencia artificial mejora la eficiencia de los despachos legales?
Claro está, una conversación digital privada es un derecho fundamental que el autor indica debe concedérsele sin miramientos a los ciudadanos, pero si se fuerza a una empresa a entregar dichos chats a una corte, para que los revise un tercero, aunque anonimizados siguen siendo una violación al derecho fundamental a la privacidad. Casos como el planteado en el artículo del NYT, dicen expertos, demuestran que se necesita “urgentemente” una nueva forma de protección legal para la mayoría de las comunicaciones privadas entre personas (que carecen de una vía humana segura y asequible para pensamientos tabú o vulnerables) y los chatbots de IA.
Permitir que el gobierno acceda a estos intercambios sin filtros y los trate como confesiones legales tendría un efecto disuasorio enorme. Si cada experimento mental privado puede ser utilizado como arma en los tribunales, los usuarios de la IA se autocensurarán, socavando algunos de los usos más valiosos de estos sistemas. Destruirá la relación sincera que hace útil a la IA para la salud mental y la resolución de problemas legales y financieros, convirtiendo una herramienta potencialmente poderosa para el autodescubrimiento y la auto-representación en una posible responsabilidad legal, indican algunos especialistas.
Lo que podría ayudar a OpenAI
Mientras la orden judicial corría, la empresa no perdió tiempo en calificar la insistencia del NYT en obtener un conjunto de datos mayor al que exigió en abril como un intento de invadir la privacidad de sus usuarios. Para ellos, el conflicto se reduce, desde la primera petición emitida por el Tribunal en mayo, a una cuestión de proporcionalidad según la Regla 26 de las Reglas Federales de Procedimiento Civil (FRCP, por sus siglas en inglés), aplicables a este caso, y que le dan a OpenAI la facultad de limitar el alcance de la orden (o de la entrega de datos) bajo el convencimiento de que la petición es desproporcionada para las necesidades del caso.
No te pierdas: Registro de marcas tridimensionales, ¿cuáles son las dificultades que hay que sortear?
Entonces, la estrategia de OpenAI se basa en aprovechar las limitaciones consagradas en las FRCP que rigen la presentación de pruebas en los tribunales federales de Estados Unidos y que, entre otras cosas, protegen la relevancia y proporcionalidad en la era digital [Regla 26(b)] y establecen el umbral para la obtención de pruebas, permitiendo el acceso únicamente a información relevante y no privilegiada que sea proporcional a las necesidades del caso.
Cabe destacar que dicha proporcionalidad exige una ponderación sistemática de factores como la importancia de los asuntos en cuestión, la cuantía del litigio, los recursos de las partes y si la carga de la obtención de las pruebas supera su probable beneficio, que –para los demandados– resulta excesivamente onerosa y no supera la prueba de proporcionalidad.
Por otro lado, la Regla 26(c) establece un mecanismo de protección y prueba de equilibrio que le puede ser útil a OpenAI si la Corte determina que los chats son relevantes, debido a que su principio básico es impedir la divulgación de información que obligue a revelar un secreto comercial u otra información confidencial”.
Y, a pesar de que la mayoría de las interacciones digitales ciudadanas se evalúan a la luz de la Doctrina de Terceros (que sostiene que la información almacenada en los servidores de una empresa, como los historiales de búsquedas de Google, no goza necesariamente de privacidad), la startup ha insistido en que el requisito de equilibrio les da acceso a estrategias de protección como la anonimización y la exigencia de un entorno seguro para su revisión, en el que el NYT no tiene cabida. Para ellos, estas medidas pueden reducir el daño específico asociado a la invasión de la privacidad y la exposición de secretos comerciales, al tiempo que garantizan al NYT el acceso a las pruebas potencialmente relevantes.




Add new comment