Regulación ética de la IA en México, ¿qué dice la iniciativa y qué debería incluir?

Caja Negra: uno de los riesgos está en el desarrollo de algoritmos basados en tecnología opaca, es decir, difíciles de descifrar y, por lo tanto, imposible de entender cómo generan predicciones. / Canva.
Caja Negra: uno de los riesgos está en el desarrollo de algoritmos basados en tecnología opaca, es decir, difíciles de descifrar y, por lo tanto, imposible de entender cómo generan predicciones. / Canva.
Una normativa adecuada a la IA debe considerar los riesgos inherentes de esta y basarse en los principios de transparencia, control e imparcialidad, en adición a la ética.
Fecha de publicación: 22/06/2023

En mayo de este año, el diputado Ignacio Loyola (PAN) presentó la iniciativa de la ley denominada Ley para la Regulación Ética de la Inteligencia Artificial para los Estados Unidos Mexicanos. Más que incluir disposiciones claras para regular la Inteligencia Artificial, el proyecto propone crear un organismo autónomo que vele por su uso y establece estándares y principios éticos genéricos en torno al tema.

Lo más rescatable de la propuesta es la creación del Consejo Mexicano de Ética para la Inteligencia Artificial y la Robótica (CMETIAR), que estaría integrado por representantes del sector público y privado, quienes brindarían asesoría en la creación de normas oficiales mexicanas en esta materia. 

En la línea de sus carencias, la propuesta supone un avance muy tímido para la regulación de la Inteligencia Artificial (IA) en México, dado que no reglamenta directamente su desarrollo, uso e implementación por particulares, ni establece las bases legislativas adecuadas para hacerlo. Probablemente por eso las manifestaciones públicas referentes a dicha iniciativa son limitadas.


No dejes de leer: ¿Por qué es importante regular la Inteligencia Artificial? Desinformación, protección de datos y derechos humanos entre las claves


Una legislación adecuada del tema debería considerar una regulación directa del desarrollo, implementación y uso de la inteligencia artificial que se adapte a la rapidez con la que la tecnología avanza. Además, debe considerar los riesgos inherentes de esta y basarse en principios de transparencia, control e imparcialidad, en adición a la ética.

No existe una persona en el mundo que diga que esto es una tarea fácil, pero es algo que se debe realizar de manera urgente. Europa y Brasil, por ejemplo, ya han dado pasos certeros para regular estas tecnologías, con toda la complejidad, limitaciones o críticas que ello ha implicado.

En efecto, este mes el Parlamento Europeo aprobó la primera normativa que regularía esta tecnología en la comunidad. La propuesta se basa en un análisis de los riesgos que una tecnología puede implicar para individuos, clasificándolos como bajo riesgo, mínimos, alto riesgo e inaceptable, resultando en un marco que regula las tecnologías conforme al riesgo aplicable.  

Una ley adecuada en México podría considerar un enfoque similar a las leyes de dichas jurisdicciones, empezando con tener una definición clara de qué es inteligencia artificial, diferenciar tecnologías basadas en su potencial riesgo, establecer reglas y requisitos para cada supuesto y establecer responsabilidades para los creadores y operadores de inteligencia artificial, además de establecer en términos más claros cómo cumplir con los principios, incluido el de transparencia.


Te recomendamos leer: La Inteligencia Artificial y la ciberseguridad, claves para reforzar el compliance corporativo


Como menciona la propia iniciativa del diputado Loyola en la exposición de motivos, muchos expertos en la materia están preocupados por la necesidad de tener una regulación real del tema. La alerta ha sido emitida por miembros del sector tecnológico que han urgido a los gobiernos regularla, tanto por medio de cartas firmadas por expertos que piden que se ponga pausa a su implementación, como a través de declaraciones ante Congresos recomendando su regulación.

No soy una detractora del uso de IA, definitivamente no creo que esta tecnología “nos matará a todos” (al menos no su versión actual). Por el contrario, creo que podría tener impactos muy positivos en nuestras vidas, incluyendo temas tan importante como salud, políticas públicas, educación y muchas otras. Pero no olvidemos que la inteligencia artificial tiene riesgos inherentes, como sesgos que pueden ser discriminatorios, sus alucinaciones, su naturaleza imperfecta (aunque mucha gente cree que es infalible) que, actualmente, tiene paradojas complejas como el uso inapropiado de derechos de propiedad intelectual y datos personales. 

Adicionalmente, los algoritmos de la inteligencia artificial actual muchas veces están basados en tecnología opaca que hace que sean difíciles o imposibles de descifrar o explicar y, por lo tanto, es imposible entender cómo generan predicciones, un fenómeno que ya ha sido denominado como la “caja negra”. 

Uno de los ejemplos más sonados al respecto de esta problemática fue en 2019, cuando Steve Wozniak, cofundador de Apple, acusó a Apple Card de utilizar un algoritmo de caja negra discriminatorio, que le otorgaba 10 veces más crédito a él que a su esposa, aunque la pareja compartía todos sus activos. Incluso cuando esa afirmación ha intentado ser desmentida, es factible que la falta de transparencia y la manera en que se alimenta a los algoritmos de información haga que sea muy compleja su corrección sin una pauta que fije estándares de uso y evite patrones de exclusión.


Te puede interesar: Uso de inteligencia artificial en despachos de abogados: adaptarse para sobrevivir


En mi opinión, la regulación de la protección de datos comenzó muy tarde y fue limitada, si acaso empezó. Países como Estados Unidos, que alberga muchas de las empresas de tecnología más importantes del mundo, sigue sin tener una legislación nacional en torno al tema.

Inclusive el Reglamento General de Protección de Datos, que sentó precedente y se ha vuelto un estándar internacional, no permite regular adecuadamente el uso de los datos personales en el mundo del Internet, que trasciende fronteras. Uno de los ejemplos más claros es el hecho de que siguen existiendo los corredores de datos (data brokers), quienes venden datos personales de las personas. La mayoría de nosotros ni siquiera estamos enterados de su existencia, mientras que muchas empresas relevantes de dicho giro amasan e infieren una cantidad de datos personales impresionante que les permite contar con un perfil muy detallado de un sinfín de individuos.  

Por todo ello es absolutamente indispensable que la inteligencia artificial se regule cuanto antes y de manera adecuada.

Creo que estamos en buen momento para regular no solo a nivel nacional, sino en una escala global, mediante acuerdos multilaterales o inclusive creando un cuerpo internacional referente al tema. Si lo hicimos para la regulación de la energía atómica, ¿por qué no hacerlo para una tecnología que va a cambiar cómo funciona nuestro mundo? La propuesta ha empezado a circular, su resonancia ha logrado captar el interés de las Naciones Unidas. En efecto, el Secretario General de las Naciones Unidas, António Guterres, ya la ha respaldado. Siendo así, es posible empezar a vislumbrar un camino, solo nos falta el impulso. 

* Lucía Fernández es consejera de Gonzalez Calvillo, S.C., cuenta con más de 15 años de experiencia proporcionando asesoría legal a empresas de diversas industrias, incluyendo asuntos comerciales y corporativos relacionados con tecnologías de la información, protección de datos, protección al consumidor, franquicias, licenciamiento y distribución, consorcios y alianzas estratégicas. Lucía Fernández también asesora en asuntos regulatorios, particularmente aquellos relacionados con publicidad y mercadeo.

Add new comment

HTML Restringido

  • Allowed HTML tags: <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Lines and paragraphs break automatically.
  • Web page addresses and email addresses turn into links automatically.