Una de las ventajas de haber nacido a partir de la segunda mitad del siglo XX, al menos para quienes son afectos al storytelling, es que pudimos recrearnos con incontables historias sobre inteligencias artificiales (y “otras yerbas” futuristas) y hemos visto llegar al futuro. Aunque, ahora, con el cerebro de una mosca transferido exitosamente a una computadora, un par de IA que –se dijo– tomaron conciencia de que las oían e inventaron un idioma para que no las entendieran (la explicación es menos tétrica) y algunos gobiernos queriendo impulsar la IA para mejorar sus tácticas de guerra, ya empieza a no caer muy bien la materialización de lo que alguna vez se soñó solo en el cine y la literatura.
Y si bien aún hay mucho qué desempacar sobre las IA generativas y sus alcances, incluidos los éticos y morales, una cosa queda clara: puede que lo más urgente sea vigilar hacia dónde están yendo las alianzas dedicadas a la mejora de las capacidades bélicas.
Un caso que estamos viendo en vivo y directo es el enfrentamiento entre la empresa detrás de la IA Claude, Anthropic, y el Gobierno de Estados Unidos (más específicamente el Pentágono), que iniciaron en noviembre de 2024 una alianza mediante la cual Anthropic implementó Claude en las agencias de inteligencia y defensa estadounidenses, a través de una asociación con Palantir Technologies Inc. (empresa estadounidense que desarrolla plataformas de integración y análisis de datos) y Amazon Web Services (AWS).
Esto convirtió a Claude en el primer modelo de IA aprobado para su uso en las redes de Nivel de Impacto 6 (o IL6, estándar del Departamento de Defensa –DoD– para los proveedores de servicios en la nube que trabajan con información secreta clasificada) del Pentágono, desde donde tuvo acceso a datos clasificados y se integró en el AIP de Palantir y en el sistema inteligente Maven (sistema inteligente que actúa como “cerebro” de la actual estrategia de objetivos militares de EE. UU.) del ejército.
Una nueva etapa para la propiedad intelectual en las Américas: la visión de Matías Noetinger
Eventual y lógicamente, Claude se usó para hacer análisis de inteligencia, planificación operativa, priorización de objetivos y misiones activas. Por ejemplo, la captura del expresidente venezolano Nicolás Maduro se hizo usando datos analizados por Claude y los actuales ataques aéreos de los que es objeto Irán son gracias a esta IA también. El asunto es que Anthropic impuso una norma contractual que, si bien fue clara para ellos, no lo fue para el Pentágono: Claude no debía usarse para la vigilancia masiva de ciudadanos ni para crear o manejar armas autónomas que ejecutaran acciones letales sin supervisión humana significativa.
Pero las aspiraciones del contratista son amplias, por este motivo el DoD exigió un contrato que permitiera el uso de Claude para todos los fines que necesitaran sin límites impuestos por el proveedor. Esto llevó a Anthropic a romper sus relaciones, a principios de este año, con el ministerio de defensa estadounidense, desencadenado por la disputa sobre las barreras contractuales impuestas bajo el marco moral de Anthropic, que se negó a retirar sus salvaguardas antes del 27 de febrero, fecha límite que le impuso el DoD para renovar relaciones.
El inicio del fin
Como Anthropic mantuvo esta barrera ética, la Administración Trump emitió, el mismo 27 de febrero, una orden ejecutiva que ordenó a las agencias federales que dejaran de usar su tecnología; adicionalmente, el secretario de Defensa, Pete Hegseth, designó a Anthropic como un “riesgo para la cadena de suministro y la seguridad nacional”, con la que los ubicó en la misma lista negra que otras empresas consideradas “adversarios extranjeros” como Huawei.
Derivado de esto, Anthropic acudió a tribunales: El 9 de marzo, introdujo una demanda, ante el Tribunal de Distrito de los Estados Unidos en el Distrito Norte de California, en contra de (prepárense, que la lista es larga) el DoD, el Departamento de Tesorería, la Agencia Federal de Financiamiento de Vivienda, el Departamento de Estado, el Departamento de Salud, el Departamento de Comercio, el Departamento de Asuntos de Veteranos, la Administración de Servicios Generales, la Oficina de Administración de Personal, la Comisión Reguladora Nuclear, la Administración del Seguro Social, el Departamento de Seguridad Nacional, la Comisión de Bolsa y Valores, la NASA, el Departamento de Energía, la Junta de Gobernadores de la Reserva Federal, el Fondo Nacional para las Artes, la Oficina Ejecutiva del Presidente, el propio Hegseth, Scott Bessent (Secretario del Tesoro, William Pulte (Director de Vivienda), Marco Rubio y Robert Kennedy Jr. (entre otros varios secretarios, comisionados, administradores y directores federales), a quienes acusó de “represalias ilegales” y violar sus derechos consagrados en la Primera Enmienda.
Wilmer, Cutler Pickering Hale & Dorr LLP es la firma detrás de los demandantes, que incluyeron a todas las agencias que cortaron relaciones con Anthropic luego de la proclamación de la orden ejecutiva que, además, exigió a todos los departamentos que tenían contratos con la startup a cesar todas las relaciones comerciales inmediatamente. Para el ministro Hegseth, Anthropic no solo es “antipatriota”, tiene una postura “fundamentalmente incompatible con los principios estadounidenses” sino que también es una empresa conducida por un “altruismo defectuoso” y una “demostración de virtud corporativa” que no demuestra más que “arrogancia” y una defectuosa “ideología de Sillicon Valley” que mantiene a “los combatientes estadounidenses como rehenes de los caprichos ideológicos de las grandes tecnológicas”.
Para Anthropic, las palabras de Hegseth muestran su incomprensión de los límites actuales de su propia tecnología y lo convirtió en un supuesto extremismo ideológico. Indicaron, además, que estas acciones “sin precedentes” y las otras medidas de la agencia adoptadas en respuesta a la Orden Ejecutiva, y la Orden Secretarial y la Carta Secretarial que le siguieron (en conjunto, las acciones impugnadas), la perjudican “irreparablemente”, ponen en riesgo sus contratos con el gobierno federal, los contratos actuales y futuros con entidades privadas y ponen en riesgo cientos de millones de dólares a corto plazo, causando no solo daños económicos inmediatos sino también a su reputación y las libertades fundamentales de la Primera Enmienda.
IA, patentes y derechos de autor: tendencias y desafíos para 2026 en Latinoamérica
La designación oficial como “Riesgo para la Cadena de Suministro y la Seguridad Nacional” tiene un profundo peso, especialmente bajo un presidente que ha amenazado con “consecuencias penales” y con “todos los poderes de la Presidencia” para exigir su cumplimiento, se lee en la demanda.
Respecto a esto, Anthropic acusa a Hegseth de amenazar en privado las libertades de la empresa, a la que pretende trasladar los costos (“…vamos a asegurarnos de que paguen un precio por forzarnos de esta manera”, dicen que se le oyó proclamar en privado al Secretario del DoD) de tener que rescindir el contrato y retirar a Claude.
A pesar de que antes de este desenlace legal la empresa y el Pentágono tuvieron meses de discusiones sobre el abandono de la Política de Uso para Claude, que la startup se negó a flexibilizar, la directiva de la compañía reiteró su compromiso de proporcionar Claude para servir a los intereses de seguridad nacional de Estados Unidos y negociar de buena fe con el DoD que, para que quede muy claro, quería lograr un acuerdo adicional para el uso de Claude en una serie de “Proyectos Pioneros” para acelerar la adopción de la IA en un proceso que “destruyera barreras”. Para avanzar en ese objetivo, el DoD envió un memorando que instruía a su oficina de adquisiciones a incorporar una cláusula de “cualquier uso legal” en todos los contratos del Departamento de Trabajo para servicios de IA.
La ruptura definitiva ocurrió el 26 de febrero cuando Dario Amodei, CEO de Anthropic, dijo públicamente que la empresa se adhería a su política establecida y que, si bien entendía que el DoD, y no las empresas privadas, toma las decisiones militares, las dos restricciones que los enfrentaron abordan usos que “exceden los límites de lo que la tecnología actual puede hacer de forma segura y fiable” y que su compañía simplemente “no puede, en conciencia, acceder” a las exigencias del Ministerio de Guerra.
Banda Maguey y el litigio por su marca: la estrategia legal que se extendió de México a California
¿Qué le pide Anthropic al tribunal?
Que bajo las normas de reclamaciones de la Ley de Procedimiento Administrativo (U.S.C. § 3252 y 5 U.S.C. § 706), se consideren ilegal y nulas las medidas finales del DoD que sean “arbitrarias, caprichosas, un abuso de discreción o de otro modo no conformes con la ley” o que “excedan la jurisdicción, autoridad o limitaciones legales, o que no cumplan con el derecho legal (…), sin observar el procedimiento requerido por la ley”.
También pide que haya una causa de acción en equidad (5 U.S.C. § 702) a la luz de la Primera Enmienda de la Constitución estadounidense, sobre la que recuerdan que el DoD y todas las acciones impugnadas violan sus derechos amparados por esta Enmienda, “porque constituyen una represalia paradigmática contra las actividades expresivas de Anthropic, incluyendo la libertad de expresión, los puntos de vista protegidos y la protección de las peticiones al gobierno”. Además, la Primera Enmienda “prohíbe a los funcionarios del gobierno tomar represalias contra individuos después de los hechos por haber participado en la libertad de expresión”.
Su tercer reclamo se a la luz del artículo II de la Constitución, bajo el que se protege la creación de tribunales de equidad “para prohibir acciones inconstitucionales por parte de funcionarios estatales y federales, de manera que, “cuando un ejecutivo actúa ultra vires, los tribunales normalmente están disponibles para restablecer los límites de su autoridad”. Para ellos, señalan que Donald Trump no tiene autoridad inherente al Artículo II para lo impuesto en la Orden Ejecutiva del 27 de febrero, debido a que no existe “práctica ejecutiva, seguida durante mucho tiempo según el conocimiento del Congreso y nunca antes cuestionada” que permita que los presidentes utilicen su cargo oficial para castigar a las corporaciones por expresar opiniones sobre asuntos de interés público en las negociaciones con el gobierno.
De consumidor a productor: El Salvador apuesta por la robótica para transformar su economía
Finalmente, exigen ser objeto del debido proceso, consagrado en la Quinta Enmienda (5 U.S.C. § 702), que garantiza que “ninguna persona será privada de la vida, la libertad o la propiedad sin el debido proceso legal”, a pesar de las amenazas públicas y privadas de Hegseth y Trump.
Solicitan una orden que declare a la Orden Secretarial y la Carta Secretarial como “arbitrarias, caprichosas, un abuso de discreción y contrarias a la ley según el Título 5 del Código de los Estados Unidos, artículo 706(2)(A)”, también como contrarias al derecho constitucional, y que las anule en su totalidad. Respecto a la Directiva Presidencial, piden que se reconozca que excede la autoridad del Presidente y viola la Primera y la Quinta Enmienda. En cuanto a las acciones impugnadas, solicitan que se prohíba a los demandados implementar, aplicar o hacer cumplir las acciones impugnadas y que se les otorgue cualquier reparación que el tribunal considere justa y adecuada, aparte del pago de sus costes legales.
Los oportunistas y el cambio del mercado
Ante el anuncio de la ruptura entre Anthropic y el Pentágono, surgieron los oportunistas que nunca faltan en estos lodosos escenarios: OpenAI se ofreció a reemplazar a su rival en todos los contratos con las agencias federales, revelando (aparentemente de manera inconsciente) que no tienen frenos éticos en sus condiciones de uso para ChatGPT si la ocasión lo amerita (después de todo, se trata de un contrato de 200 millones de dólares que se firmó casi inmediatamente después de las órdenes de Trump y Hegseth).
Esto consolidó el dominio de OpenAI en el sector público, pero generó fricciones internas que desencadenaron renuncias de algunos de sus ejecutivos y personalidades de alto perfil, basadas sobre todo en justos señalamientos de que la movida de OpenAI es una “traición” a la seguridad de la IA. De hecho surgió el movimiento “cancela ChatGPT” que, para el 8 de marzo, ya había causado 2,5 millones de eliminaciones de la aplicación, impulsadas por un boicot que el público inició en contra de OpenAI, en protesta por el acuerdo militar.
En contraste, Anthropic, que arriesgó cientos de millones de dólares de ganancia, surgió un adalid de la justicia, lo que le ha dado un impulso positivo en sus relaciones públicas, esto lo llevó a obtener el primer lugar en descargas en la App Store de Apple, hacia principios de marzo, donde el primer lugar lo tenía ChatGPT.
No obstante, aunque Anthropic cuenta ahora con el favor de los usuarios (está ganando en positividad de marca), Amodei advirtió que haber sido calificados como amenaza le costará miles de millones de dólares en ingresos, especialmente porque no solo las agencias federales demandadas han rescindido de sus contratos con ellos sino porque muchas empresas privadas tienen contratos con entes gubernamentales y puede que se vean obligadas a abandonar a Claude para evitar perder su propia reputación federal.
Valve vs. Leigh Rothschild: un litigio por trolling de patentes y uso indebido de licencia global
Expertos han señalado que el enfrentamiento Anthropic vs Pentágono señala algo fundamental: la ventaja de EE. UU. en la carrera de la IA es fundamentalmente financiera, ya que la capacidad de captar capital y de devolverlo es lo que atrae a los inversionistas hacia Sillicon Valley en vez de desviarlos hacia Pekín, que también está a la cabeza en la carrera por el domino en IA. El impasse con los creadores de Claude le dicen al capital global que EE. UU. ya no tiene una credibilidad comparativa ni la garantía regulatoria que protege a los inversores.
Haber designado a esta empresa nacional como un “riesgo en la cadena de suministro”, la Administración le dijo a todos que los modelos de IA son una infraestructura crítica sujeta a mandatos de seguridad nacional, en lugar de simplemente productos y servicios. Adicionalmente, este evento marca el fin la buena relación entre el Big Tech y Washington (desesperado por dominar globalmente en IA) en cuanto a la gobernanza de la IA y el empeño en ver el desarrollo de modelos LLM bajo los conceptos de soberanía vs. seguridad, para los que Trump ya dejó en claro que no tolerarán una “IA constitucional” privada con marcos éticos que restrinjan el poder estatal.
Por cierto, volviendo al storytelling, la guerra y la IA: Hay seis películas y dos series de Terminator que nos han explicado que no dejarle barreras a la IA, en estos escenarios, es una muy mala idea. Que no se nos olvide.






Add new comment