¿Cómo se pretende regular la inteligencia artificial? Normas avanzan en la Unión Europea y América

La Ley de IA establece que las IA generativas deben establecer claramente qué crearon y publicar resúmenes de los datos protegidos por derechos de autor utilizados / Gerd Altmann - Publicdomainpictures.net
La Ley de IA establece que las IA generativas deben establecer claramente qué crearon y publicar resúmenes de los datos protegidos por derechos de autor utilizados / Gerd Altmann - Publicdomainpictures.net
El bloque también inaugurará cuatro instalaciones para estudiar todas las innovaciones que haya en Inteligencia Artificial y garantizar que sean seguras antes de salir al mercado.
Fecha de publicación: 28/06/2023

Esta semana, Lucila Scioli, directora de Inteligencia Artificial e Industria Digital de la Unión Europea (UE), anunció que el bloque abrirá un sistema de pruebas de choque, consistente en cuatro instalaciones de avanzada, para estudiar todas las innovaciones que haya en Inteligencia Artificial y garantizar que sean seguras antes de salir al mercado.

La inversión para poner en funcionamiento las instalaciones rondó los 240 millones de dólares y se espera que estén en uso el año que viene.

Las llamadas pruebas de choque están diseñadas para probar todos los avances en IA y robótica que se presenten o patenten en la UE, especialmente los que se usarán en la medicina, manufactura o agricultura, con la idea de determinar qué tan seguros, trazables, no discriminatorios y transparentes son, además de qué tan confiables, por ser la IA generativa uno de los recursos que mayores problemas de desinformación están causando en el presente.


Más sobre IA: Perú aprueba ley para el uso de la Inteligencia Artificial


Este recurso se sumará a la Ley Europea de Inteligencia Artificial que, cuando sea aprobada, se espera que sea la primera ley integral que regulará a la IA en el mundo. La normativa es parte de la estrategia digital de la UE para la transformación digital (una de sus prioridades), que incluye crear nuevas oportunidades para las empresas, apoyar la educación digital y digitalizar los servicios públicos, por medio de la definición de regulaciones. 

La ley de IA se propuso en 2021 y establece, entre otras cosas, que las IA generativas deben establecer claramente qué crearon, estar diseñadas para evitar la producción de contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor, utilizados para el entrenamiento, con el fin de cumplir con los requisitos de transparencia.

La ley también creó una escala que determina el nivel de las obligaciones de manera proporcional al riesgo que comporta.

Entonces, de acuerdo con esta, hay cuatro niveles de riesgo dentro de la IA: inaceptable, alto, limitado y riesgo mínimo. Las que representen riesgo inaceptable (es decir, que afecten negativamente a la seguridad o a los derechos fundamentales) deben estar prohibidas; mientras tanto, las que representen riesgo limitado deben cumplir unos requisitos mínimos de transparencia, lo que significa que el usuario debe saber que está interactuando con una IA o está ante material generado por ella (como los deep fakes). 

En general, la ley está llamada a reforzar las normas sobre calidad de los datos, transparencia, supervisión humana y rendición de cuentas, así como establecer requisitos y obligaciones dentro de la UE para los desarrolladores y usuarios. 


Podría interesarte: Inteligencia Artificial como creadora, es hora de hablar de la propiedad intelectual del futuro


En América: Chile

Si bien Europa está a la vanguardia en la regulación de las IA, la preocupación sobre su auge, especialmente el de las generativas, no es único de la UE, puesto que las preocupaciones y preguntas sobre el potencial de IA para causar daño (por encima de sus beneficios) son comunes en varias naciones americanas, por ejemplo, desde Estados Unidos, donde la Administración de Biden ha llamado al estudio y supervisión de las IA, hasta Chile, donde fue ingresado (el 24 de abril) por moción parlamentaria el proyecto de Ley N° 15869-19, que regula los sistemas de inteligencia artificial, la robótica y las tecnologías conexas en sus distintos ámbitos de aplicación y que ahora está en primer trámite constitucional. 

El proyecto está basado en la Ley Europea de Inteligencia Artificial y la Política de Inteligencia Artificial de 2021, publicada en Chile por el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación. La propuesta busca establecer un marco regulatorio de los riesgos derivados del uso, comercialización, desarrollo y distribución de la IA que tome en cuenta el derecho al acceso a estas tecnologías, el crecimiento industrial y los derechos civiles fundamentales.

A grandes rasgos, el proyecto tiene 15 artículos que abarcan los criterios de clasificación de riesgos de las IA en alto (o inaceptable) que, como en la ley de la UE estarán prohibidos, y medio y bajo, y establece sanciones y un mecanismo de autorización.

Brasil

La regulación de las IA va de la mano con el Proyecto de Ley (PL) 2.338/2023, introducido por el senador Rodrigo Pacheco (PSD/MG), que propone una serie de normas para desarrollar estas tecnologías bajo el criterio de protección de los derechos fundamentales de las personas, incluida la protección de sus datos, en línea con la vigente Ley General de Protección de Datos - LGPD.

La normativa establecería multas y prohibición del uso de la IA en ciertas instancias, además, promovería el nombramiento de una autoridad responsable de la inspección de su uso (a decidir por el Poder Ejecutivo).

El PL también indica cuáles son los derechos de las personas afectadas por su uso, define criterios para su aplicación, impone la prohibición de participar en entornos regulatorios experimentales y la suspensión (temporal o definitiva) del sistema.

Como en Europa, también contempla que todos los sistemas de IA sean sometidos a pruebas de choque, para determinar su nivel de riesgo.


Más contenido: Los límites que ChatGTP tiene frente a la protección de datos y la propiedad intelectual de las personas


México

El diputado Ignacio Loyola presentó el proyecto de la Ley para la Regulación Ética de la Inteligencia Artificial y la Robótica, diseñada para regular y normar el uso de estas tecnologías en contextos gubernamentales, económicos, comerciales, administrativos, comunicacionales y financieros.

El anteproyecto también propone la creación del Consejo Mexicano de Ética para la Inteligencia Artificial y Robótica (Cmetiar), ente regulador que establezca normas oficiales para el desarrollo ético de la industria nacional de la IA.

La Cámara de Diputados informó que el proyecto tiene 19 artículos distribuidos en tres capítulos: I Disposiciones Generales, II Del Consejo Mexicano de Ética para la Inteligencia Artificial y la Robótica y III De la Ética en el Desarrollo, Creación y Uso de la Inteligencia Artificial y la Robótica en los Estados Unidos Mexicanos, así como dos artículos Transitorios.

Colombia

El 15 de junio, Mauricio Lizcano, ministro de Tecnologías de la Información y las Comunicaciones, anunció que el país creará un laboratorio para IA, a ser dirigido por la Oficina Internacional del Ministerio y que trabajará en conjunto con Gobierno, empresas, inversionistas, innovadores, emprendedores y académicos.

En el laboratorio se diseñará el marco regulatorio que regirá el uso y desarrollo de la IA en el país, además servirá como hub de formación de líderes y centro de investigación, incubadora de innovaciones y desarrollador de acciones de prototipado. El plan es promover el desarrollo tecnológico del país mientras se resguarda el análisis, protección y privacidad de datos.

Add new comment

HTML Restringido

  • Allowed HTML tags: <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Lines and paragraphs break automatically.
  • Web page addresses and email addresses turn into links automatically.