A medida que las empresas incorporan la inteligencia artificial en sus procesos de contratación, evaluación de riesgos, atención al cliente o toma de decisiones comerciales, también aumenta el escrutinio sobre el funcionamiento de los algoritmos. Entre las principales preocupaciones del debate aparece una en particular: la posibilidad de que estos sistemas reproduzcan o amplifiquen sesgos de género tanto en el sector privado como en el público.
En lo que va de la LXVI Legislatura (2024-2027), el Congreso mexicano ha presentado 87 iniciativas relacionadas con la inteligencia artificial a fines de 2025, un reflejo del creciente interés por regular estas tecnologías. La más reciente es el proyecto para expedir la Ley Nacional para Regular el Uso de la Inteligencia Artificial, presentado en el Senado el pasado 11 de febrero por la senadora Karina Isabel Ruiz Ruiz.
La propuesta busca establecer por primera vez en México un marco jurídico integral para el desarrollo, implementación y uso de sistemas de inteligencia artificial tanto en el sector público como en el privado. Sin embargo, el impulso de esta reforma también ha abierto un debate dentro del ámbito jurídico y empresarial: avanzar hacia una regulación amplia cuando aún se están evaluando los alcances y consecuencias de estas tecnologías podría generar normas prematuras.
A partir de este panorama de debate regulatorio y creciente adopción empresarial, LexLatin conversó, en el marco del Mes de las Mujeres, con cuatro abogadas que trabajan en la intersección entre derecho, tecnología y regulación corporativa. Sus análisis ofrecen una mirada sobre cómo los sesgos pueden impactar en las organizaciones y qué controles deberían implementar las empresas, entre otros temas.
Inteligencia artificial, socios inversionistas y una generación entera en suspenso
El papel de las abogadas tech en el debate regulatorio
Aunque el derecho tecnológico sigue siendo un campo relativamente especializado dentro de la práctica legal en México, las abogadas que trabajan en esta área tienen cada vez más presencia en las discusiones sobre la regulación de la inteligencia artificial. Según explica Cinthya González, asociada en Von Wobeser y Sierra, el rol de los especialistas en derecho tecnológico consiste en analizar cómo deben aplicarse los marcos jurídicos existentes a herramientas que evolucionan con gran rapidez.
Al mismo tiempo, señala que el derecho tecnológico sigue siendo un ámbito relativamente reducido dentro de la práctica legal en México, por lo que quienes se dedican a esta especialidad, tanto hombres como mujeres, suelen involucrarse de manera activa en el debate sobre los desafíos jurídicos que plantea la inteligencia artificial.
“No obstante considero que la participación de las mujeres en estos espacios es especialmente relevante. La inteligencia artificial puede amplificar sesgos que ya existen en la sociedad si no se analiza con cuidado, por lo que la presencia de mujeres en los debates legales, regulatorios y técnicos es importante para impulsar discusiones sobre transparencia, rendición de cuentas y prevención de discriminación en el desarrollo y uso de estas tecnologías”, aclara.
La abogada advierte que, sin perspectivas diversas, los sistemas de inteligencia artificial pueden reproducir las brechas de género existentes, por lo que una mayor participación de mujeres contribuye a incorporar una mirada más amplia sobre sus impactos sociales y la protección de derechos.
En ese mismo sentido, Mónica I. Contla Morales, asociada senior de Ferran Martínez Abogados, considera que una de las principales contribuciones de los abogados especializados en tecnología es precisamente ayudar a comprender cómo estos desarrollos afectan el marco legal existente.
“El rol de las abogadas especializadas en tecnología suele ser ayudar a traducir esos avances tecnológicos a sus implicaciones legales y prácticas del día a día, toda vez que la inteligencia artificial no solo plantea preguntas técnicas, sino también cuestiones relacionadas con privacidad, uso de datos, toma de decisiones automatizadas y posibles impactos en los derechos de las personas”, afirma.
Asimismo, sostiene que el creciente número de mujeres participando en estas discusiones resulta positivo, ya que históricamente la representación femenina en este tipo de espacios ha sido menor. En su opinión, la presencia de más abogadas en el debate también contribuye a incorporar perspectivas diversas en el análisis y en la eventual regulación.
Desde la práctica de propiedad intelectual, Mariana González Vargas, socia de Basham, Ringe y Correa, añade que el debate también se está ampliando hacia cuestiones relacionadas con derechos de autor, protección de modelos de inteligencia artificial y titularidad de los resultados generados por estas herramientas.
“Estas aportaciones no solo se centran en cuestiones jurídicas tradicionales, sino que también incorporan un entendimiento profundo de los desafíos técnicos, éticos y sociales que plantea la IA. La presencia de abogadas en estos espacios ha enriquecido la discusión, ofreciendo una mirada interdisciplinaria que vincula derecho, tecnología y responsabilidad corporativa, lo cual considero esencial para construir un marco normativo sólido y viable”, opina.
Por su parte, Pamela Martínez, asociada en el área corporativo de Pérez‑Llorca México, destaca que en México el espacio para incidir en la regulación aún es amplio debido a la ausencia de una ley específica en materia de inteligencia artificial.
“En México, donde todavía no contamos con una ley específica en la materia, estamos participando en foros, asesorando a empresas en el diseño de políticas internas de uso responsable, y contribuyendo a que las propuestas que están tomando forma retomen estándares internacionales como la Recomendación de la UNESCO sobre la Ética de la IA. Nuestra aportación no es solo técnico-jurídica: también es asegurarnos de que la regulación que se construya sea socialmente justa y no deje fuera las desigualdades que ya existen”, dice.
Uso de la IA en las empresas
La adopción de inteligencia artificial dentro de las empresas está creciendo rápidamente. Estas herramientas se utilizan para analizar grandes volúmenes de información, automatizar procesos y apoyar la toma de decisiones. Sin embargo, su implementación también plantea nuevos desafíos legales.
Según explica la abogada Contla, muchas organizaciones están incorporando herramientas de IA en procesos internos como el análisis de datos, el reclutamiento o la evaluación de perfiles. Estas tecnologías son útiles para optimizar los tiempos y mejorar la eficiencia operativa, pero también requieren un análisis cuidadoso de los datos con los que se entrenan.
“Si los datos reflejan ciertas desigualdades, existe el riesgo de que la herramienta reproduzca esas mismas tendencias sin que necesariamente sea evidente para quienes la utilizan, es decir, las mujeres”, advierte.
Para la asociada senior, el reto desde el punto de vista legal consiste en garantizar que el uso de estas tecnologías no derive en decisiones que comprometan la igualdad de oportunidades. En ese sentido, sostiene que la inteligencia artificial debe entenderse como una herramienta de apoyo y no como un sistema autónomo, por lo que su funcionamiento debe estar sujeto
En la misma línea, González Vargas señala que muchos sistemas de inteligencia artificial se entrenan con datos históricos que reflejan patrones sociales, reproduciendo prejuicios existentes, incluidos los de género. La abogada comenta que, si esos datos no se revisan adecuadamente, los algoritmos pueden terminar replicando o incluso amplificando esos mismos sesgos.
Para la experta en propiedad intelectual esto resulta relevante cuando las herramientas de inteligencia artificial se utilizan en decisiones que afectan directamente a las personas, como procesos de contratación o promociones laborales.
“Las empresas deben implementar políticas claras de entrenamiento y auditoría de modelos, incluyendo revisión de datos, validación de resultados y pruebas de equidad de género. Además, es importante integrar mecanismos de supervisión humana y protocolos de mitigación, de modo que las decisiones automatizadas sean consistentes con los principios legales de igualdad y no discriminación, minimizando riesgos regulatorios y de reputación”, recomienda.
El problema de los sesgos algorítmicos
Otro de los temas más discutidos en el debate sobre la IA es la posibilidad de que los algoritmos reproduzcan prejuicios presentes en los datos con los que fueron entrenados. Para la socia de Basham, el problema radica en que los sistemas de inteligencia artificial no tienen capacidad de reflexión ética.
“Los sistemas de inteligencia artificial dependen de datos que reflejan patrones sociales y estructuras históricas, lo que significa que pueden reproducir sesgos relacionados con género, raza, religión, identidad de género, orientación sexual y edad. Estas distorsiones pueden manifestarse en decisiones automatizadas de manera sutil pero consistente, afectando la asignación de oportunidades, la evaluación de desempeño o la distribución de recursos dentro de las organizaciones”, explica.
En particular, los sesgos de género pueden comprometer los derechos de las mujeres y generar consecuencias legales para las empresas, como incumplimientos de normas laborales y de igualdad, sanciones regulatorias o daños reputacionales. Incluso decisiones aparentemente neutrales pueden producir efectos adversos recurrentes.
La experta remarca otro desafío: los sesgos suelen pasar desapercibidos hasta que se reflejan en resultados concretos, lo que dificulta anticiparlos. Por ello, sugiere a las empresas evaluar con cuidado cómo el uso de inteligencia artificial puede impactar en los derechos de las mujeres, incluso cuando no exista una intención discriminatoria explícita.
En palabras de la asociada de Von Wobeser y Sierra, el principal desafío legal en este ámbito es la llamada discriminación automatizada. Cuando los algoritmos replican patrones históricos de exclusión, las decisiones técnicas pueden terminar reproduciendo desigualdades sociales.
“Diversos informes internacionales han señalado que las mujeres siguen estando subrepresentadas en la industria tecnológica y particularmente en los equipos que desarrollan sistemas de inteligencia artificial. Cuando el diseño de estas herramientas se realiza con equipos poco diversos, existe un mayor riesgo de que ciertos sesgos pasen inadvertidos desde la etapa de diseño”, indica González.
Por su lado, Martínez menciona que los sistemas de inteligencia artificial pueden reproducir desigualdades estructurales cuando se entrenan con datos que reflejan esas mismas brechas. Por ello, el reto jurídico consiste en garantizar que el uso de estas herramientas sea compatible con principios fundamentales como la igualdad y la no discriminación.
“A nivel internacional se observa una tendencia hacia exigir mayor transparencia, evaluaciones de impacto y supervisión humana en los sistemas de alto riesgo, como refleja el reciente AI Act de la Unión Europea. En la práctica, esto implica que las empresas deberán desarrollar procesos más robustos de revisión y auditoría de sus sistemas algorítmicos, incorporando una perspectiva de derechos humanos e igualdad de género en su diseño y uso”, argumenta.
¿Cómo reducir los riesgos legales?
Frente a los desafíos antes mencionados, las compañías mexicanas están empezando a desarrollar políticas internas para gestionar los riesgos asociados al uso de inteligencia artificial. Uno de los ámbitos más importantes es la gobernanza de datos.
Para González Vargas, una estructura sólida de gobernanza permite garantizar la calidad, trazabilidad y seguridad de la información utilizada para entrenar modelos de inteligencia artificial. La vocera de Basham menciona algunos pilares:
- Calidad y coherencia de la información: los modelos de IA necesitan datos exactos, completos y consistentes. La gobernanza define criterios de precisión e integridad y establece mecanismos para revisar y mejorar continuamente la información.
- Propiedad y rendición de cuentas: cada conjunto de datos debe contar con un responsable que defina su significado, supervise su calidad y autorice su utilización.
- Trazabilidad y claridad: es fundamental conocer el origen de los datos, los procesos de transformación a los que se someten y la manera en que se emplean, garantizando seguimiento y cumplimiento regulatorio.
- Seguridad y gestión de accesos: los sistemas de IA manejan información sensible; la gobernanza asegura que los accesos estén regulados, monitorizados y cumplan con las normas corporativas y legales.
- Uso ético y responsable: se establecen límites y directrices para evitar el uso indebido tanto de los datos como de los modelos de IA.
Sin estos controles, aclara la abogada, los resultados de los sistemas pueden ser impredecibles y generar riesgos legales en áreas como la privacidad, la propiedad intelectual o la responsabilidad corporativa.
Las especialistas citadas en esta nota también coinciden en que la supervisión humana sigue siendo un elemento esencial. De acuerdo con Chintya González, aunque la inteligencia artificial puede apoyar procesos corporativos, la responsabilidad final por las decisiones sigue recayendo en las empresas.
Frente a estos riesgos, la experta recomienda a las empresas pueden distintas medidas para promover un uso responsable de la inteligencia artificial y reducir posibles contingencias legales:
- Políticas internas y evaluación de riesgos: establecer lineamientos claros para el uso de herramientas de inteligencia artificial y realizar evaluaciones previas a su implementación, especialmente cuando puedan afectar derechos de las personas o involucrar datos personales. Muchas empresas también están incorporando principios de uso ético basados en equidad, no discriminación y responsabilidad.
- Supervisión humana: mantener revisión y control humano sobre los resultados generados por sistemas de IA. Aunque estas herramientas pueden apoyar procesos corporativos, las decisiones relevantes deben ser validadas por personas, ya que la responsabilidad final recae en la empresa.
- Protección de datos y propiedad intelectual: evitar ingresar datos personales o información confidencial en sistemas de IA sin contar con bases legales y medidas de seguridad adecuadas. También es clave evaluar posibles implicaciones en materia de propiedad intelectual cuando las herramientas generen contenidos que puedan reproducir obras o marcas protegidas.
- Relación con proveedores y regulación: revisar cuidadosamente los contratos con proveedores tecnológicos y seguir de cerca la evolución del marco regulatorio aplicable al uso de inteligencia artificial.
Por otro lado, Contla Morales considera que el objetivo no debe ser evitar el uso de estas herramientas, sino integrarlas de manera responsable dentro de las organizaciones.
“Por ejemplo, es importante evitar subir información confidencial de la empresa, datos personales de clientes o cualquier información sensible que pueda comprometer la seguridad o la privacidad de todos los usuarios y compañías, al mismo tiempo”, señala.
Con estas herramientas, indica la especialista, se puede automatizar tareas repetitivas o administrativas, lo que permite que las personas dediquen más tiempo a actividades que requieren análisis, estrategia o toma de decisiones. La especialista señala que la clave no está en evitar la inteligencia artificial.
Además, la experta del área corporativo de Pérez-Llorca México destaca la importancia de conocer qué IA están usando incluyendo la que viene de fábrica en el software que ya tienen contratado, y tener políticas internas claras sobre cómo, cuándo y para qué se puede usar.
“Una vez que tienes ese mapa, viene lo importante: revisar periódicamente si esos sistemas están generando sesgos, sobre todo en decisiones que impactan directamente a las personas, como contrataciones o evaluaciones de desempeño. Y para eso, los equipos de RR.HH., legal y cumplimiento necesitan entender, al menos en lo básico, cómo funcionan las herramientas que usan. No se trata de volverse ingenieros, sino de poder hacerles las preguntas correctas”, sentencia.
De igual modo, Martínez destaca la importancia de revisar las relaciones contractuales con proveedores tecnológicos y exigir mayor transparencia sobre el funcionamiento de los sistemas utilizados.
“Si estamos usando inteligencia artificial en nuestro trabajo para investigar, analizar documentos, lo que sea el cliente merece saberlo. La relación abogado-cliente se sostiene sobre la confianza, y esa confianza se construye siendo honestos sobre cómo trabajamos. Usar IA no es malo; ocultarlo sí puede serlo”, concluye.
La especialista señala que la Recomendación de la UNESCO sobre la Ética de la IA sirve como un referente fundamental, pues considera que principios como proporcionalidad, no discriminación, equidad y rendición de cuentas deben guiar toda política de uso responsable de inteligencia artificial.
El debate sobre la inteligencia artificial en México apenas comienza, pero la creciente adopción de estas tecnologías en empresas y la discusión sobre su regulación muestran que la conversación está lejos de terminar.
¿Qué sigue ahora? Las abogadas tech no solo aportan conocimiento jurídico y técnico, sino que también amplían la perspectiva sobre derechos, equidad y ética. Su participación deja al descubierto que la innovación no es neutral: cómo se diseña, regula y supervisa la IA puede transformar la forma en que trabajamos y tomamos decisiones, y serán estas voces diversas las que garanticen un avance tecnológico justo e inclusivo.






Add new comment