Los límites que ChatGTP tiene frente a la protección de datos y la propiedad intelectual de las personas

Nuestros datos en la IA pueden verse afectados por filtraciones que expondrían nuestra vida privada / Levart Photographer - Unsplash
Nuestros datos en la IA pueden verse afectados por filtraciones que expondrían nuestra vida privada / Levart Photographer - Unsplash
El bloqueo de Italia fue porque el sistema no cuenta con un fundamento legal adecuado para recopilar información personal.
Fecha de publicación: 19/04/2023

Bastante se ha comentado sobre las virtudes del afamado ChatGTP, que ha maravillado a la comunidad internacional con un prototipo de chatbot de inteligencia artificial.

Al mismo tiempo, y mientras la tecnología avanza, algunos gobiernos han puesto en duda los límites que esta invención tiene frente a la protección de datos personales y a la propiedad intelectual de las personas, toda vez que el sistema se nutre y procesa datos que finalmente son otorgados por los mismos usuarios y que muchas veces son datos personales o información sujeta a derechos de propiedad intelectual.

En este contexto, llama la atención el reciente pronunciamiento de la agencia italiana de protección de datos que decidió bloquear el chatbot de OpenAI, señalando que el sistema no cuenta con un fundamento legal adecuado para recopilar información personal sobre las personas que lo usan, en concreto: “Con una base jurídica que justifique la recogida y la conservación masiva de datos personales”.

Todo esto, debemos entenderlo en el contexto del Reglamento General de Protección de Datos (RGPD) de la Unión Europea, que posee los estándares más altos de protección.


Más sobre este tema: ChatGPT: Si el autor no es humano, ¿existe plagio?


Así, la agencia italiana nos pone en alerta sobre el incumplimiento del chatbot al no contar con el fundamento legal adecuado (básicamente, el consentimiento del titular de los datos), no verificar la edad de sus usuarios y no implementar de manera adecuada reglas que prohíban a los menores de 13 años el acceso al mismo. En efecto, bajo la lógica del RGPD, los menores de edad podrían verse eventualmente afectados por respuestas poco adecuadas para su edad.  

Además, no resulta menor considerar que el pasado mes de marzo hubo una filtración de los financieros de sus usuarios, lo que puso en jaque el deber de resguardo y seguridad de los datos personales requerido por la autoridad, lo que evidenció que ChatGPT no cumple con el estándar de licitud. En efecto, durante unas horas fue posible ver los datos personales de usuarios registrados en ChatGPT.

Lo anterior pone a la IA en un dilema: Si bien puede otorgarnos grandes beneficios y aumentar nuestra calidad de vida, debemos considerar que estos datos, que finalmente alimentan el algoritmo, pueden verse afectados por filtraciones que expondrán nuestros datos personales y nuestra vida privada.

En el caso de Chile, nuestro ingreso a la OCDE en 2010 significó el compromiso de adecuaciones a normativas y modificación de marcos legales, entre ellos el de privacidad y protección de datos. Normativa que esperamos pueda ver la luz este año, dado que se encuentra en sus fases finales de tramitación. De esa manera, contaríamos con nuestra propia agencia de protección de datos y aumentaría el estándar de protección, a modo de incorporar requisitos de seguridad, sanciones y el control a través de un ente especializado y autónomo.

*Asociada de Andes IP.

Add new comment

HTML Restringido

  • Allowed HTML tags: <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Lines and paragraphs break automatically.
  • Web page addresses and email addresses turn into links automatically.