El Pentágono presionó a empresas de IA antes de los ataques a Irán, y eso es una muy mala señal para el futuro de la IA ética
Inteligencia Artificial y poder militar nunca estuvieron tan cerca, ni tan peligrosamente entrelazados. En marzo de 2026, mientras Estados Unidos e Israel preparaban ataques coordinados contra Irán, una batalla muy distinta tenía lugar entre bambalinas en Washington. El Pentágono y Anthropic, creadora del asistente Claude, se enredaron en un pulso sobre los límites del uso de la IA en operaciones militares. La empresa quería unas garantías básicas: nada de vigilancia contra ciudadanos estadounidenses y nada de armas autónomas sin supervisión humana. La respuesta del gobierno de Trump fue rápida y brutal: cortó todos los contratos federales con Anthropic y calificó a la empresa de radical y woke.
Horas después, OpenAI ocupó su lugar, cerrando un acuerdo con el Departamento de Defensa sin imponer ninguna restricción ética explícita. El episodio plantea una pregunta que va mucho más allá de la tecnología en sí: ¿qué pasa cuando el gobierno más poderoso del planeta obliga a las empresas de IA a abandonar sus propios principios éticos? 🤔 Esta historia mezcla regulación vaciada, autonomía de máquinas en el campo de batalla y una ética que parece cada vez más desechable cuando se trata de guerra. Vamos a entender qué pasó, por qué importa y qué puede venir después.
El pulso entre el Pentágono y Anthropic
Para entender la gravedad de lo que ocurrió, hay que mirar el contexto completo. Anthropic siempre se posicionó como una empresa que pone la seguridad en primer lugar en el desarrollo de Inteligencia Artificial. Desde su fundación, la compañía estableció políticas de uso aceptable bastante claras, incluida la prohibición explícita de aplicaciones que implicaran armas autónomas letales y vigilancia masiva sin orden judicial. Cuando el Pentágono llamó a la puerta de la empresa para firmar contratos relacionados con operaciones militares en Oriente Medio, Anthropic no dijo que no de entrada: intentó negociar condiciones mínimas que preservaran sus valores fundacionales.
Entre esas condiciones estaban la exigencia de supervisión humana en cualquier proceso de toma de decisiones letales y la garantía de que sus modelos Claude no se usarían para espiar a ciudadanos estadounidenses en territorio nacional. Anthropic también destacó públicamente que los sistemas actuales de IA no son lo suficientemente confiables como para operar armas totalmente autónomas, reforzando que su postura no era meramente ideológica, sino también técnica.
El gobierno, sin embargo, no estaba dispuesto a aceptar medias tintas. La administración Trump interpretó esas condiciones como obstáculos ideológicos y no como salvaguardas técnicas legítimas. El viernes anterior a los ataques, el presidente Donald Trump publicó en redes sociales que jamás permitiría que una empresa radical y woke dictara cómo el gran ejército estadounidense lucha y gana guerras. La cancelación de todos los contratos federales con Anthropic vino acompañada de una campaña pública para desacreditar a la empresa, creando un efecto dominó que presionó a otras compañías tecnológicas a reconsiderar cualquier postura que pudiera verse como resistencia al gobierno. El mensaje quedó clarísimo: o colaboras en los términos del Pentágono, o te quedas fuera del juego, y del dinero.
La entrada de OpenAI y el concepto de usos legales sin líneas éticas
El movimiento más revelador fue la velocidad con la que OpenAI llenó el vacío dejado por Anthropic. En cuestión de horas, la empresa de Sam Altman cerró un acuerdo con el Departamento de Defensa. La diferencia central respecto a la postura de Anthropic es que OpenAI adoptó el concepto de permitir todos los usos legales de sus herramientas, sin especificar públicamente qué líneas éticas no estaría dispuesta a cruzar.
Eso no significa necesariamente que OpenAI haya renunciado a todos sus principios internos, pero la ausencia de condiciones explícitas envió una señal preocupante a toda la industria de Inteligencia Artificial. El mensaje implícito es que las empresas que quieran sobrevivir financieramente y mantener acceso a contratos multimillonarios necesitan ser flexibles, y flexibilidad, en este contexto, significa silencio sobre ética y límites de uso. Por otro lado, la decisión ya empezó a generar consecuencias para la propia OpenAI. Un movimiento creciente de cancelación de ChatGPT ganó fuerza entre consumidores que critican la ausencia de cualquier limitación ética en el acuerdo militar.
Vale recordar que OpenAI no llegó a este punto de la nada. Su cofundador y presidente Greg Brockman donó personalmente 25 millones de dólares a una organización de apoyo a Trump el año anterior. Sam Altman también contribuyó con un millón de dólares al fondo de toma de posesión de Trump, aunque subrayó públicamente que también hizo donaciones a políticos demócratas. Estos lazos financieros ayudan a explicar lo fácil que fue para la empresa posicionarse como sustituta de Anthropic en un momento tan delicado.
El historial de principios éticos que parecía prometedor
Lo que hace que este episodio sea aún más amargo es que, hasta hace poco, existía un consenso internacional bastante sólido sobre la necesidad de gobernar el uso militar de la Inteligencia Artificial. En febrero de 2020, el propio Departamento de Defensa de Estados Unidos adoptó principios éticos para el uso de IA en toda la organización. Esos principios exigían que los sistemas fueran responsables, equitativos, rastreables, confiables y gobernables.
La OTAN siguió el mismo camino en 2021, formulando principios similares para el uso de IA entre sus miembros. El Reino Unido publicó su propia estrategia de inteligencia artificial para defensa en 2022, alineada con la misma filosofía de transparencia y control humano. Esos hitos no eran perfectos, pero representaban un esfuerzo genuino por establecer reglas de juego antes de que la tecnología avanzara demasiado rápido como para poder controlarla.
Estados Unidos desempeña un papel único entre sus aliados internacionales en la definición de normas globales sobre conducta militar. Cuando Washington adoptó esos principios, envió una señal clara a países como Rusia, China, Brasil e India sobre cómo debería gobernarse el uso militar de la IA. El abandono de esos mismos principios ahora envía una señal igual de clara, solo que en la dirección opuesta.
Autonomía de las máquinas y el vaciamiento de la regulación
El debate sobre la autonomía en sistemas de Inteligencia Artificial aplicados al campo militar no es nuevo, pero ganó una urgencia completamente distinta con este episodio. Durante años, especialistas en seguridad e investigadores advirtieron que la línea entre una IA que auxilia decisiones humanas y una IA que toma decisiones por sí misma es mucho más tenue de lo que parece. La preocupación central gira en torno a los llamados sistemas de armas letales autónomas: dispositivos y programas capaces de elegir objetivos y atacarlos sin intervención humana.
Cuando un dron analiza datos en tiempo real, identifica un objetivo y recomienda un ataque, ¿el operador humano que aprieta el botón final está realmente tomando una decisión independiente o solo está validando lo que la máquina ya decidió? Esta pregunta se vuelve aún más incómoda cuando consideramos que, en escenarios de combate real, la presión por la velocidad de respuesta empuja con frecuencia a los sistemas hacia niveles cada vez mayores de autonomía. La retirada de empresas que insistían en mantener al ser humano genuinamente en control del proceso de decisión solo acelera este camino peligroso.
En el frente de la regulación, el panorama es igual de sombrío. La administración Trump ya había prohibido el año anterior que los estados estadounidenses regularan la IA, alegando que cualquier regulación estatal amenazaba la innovación. Esta decisión eliminó una de las pocas capas de protección que aún existían en el ecosistema regulatorio de Estados Unidos. Sin una legislación sólida que defina claramente qué pueden y qué no pueden hacer los sistemas autónomos en contextos de conflicto armado, la responsabilidad recae por completo en las empresas, y como hemos visto, las empresas que intentan ejercer esa responsabilidad son castigadas.
Organismos internacionales como la Cruz Roja llevan casi una década discutiendo tratados sobre armas autónomas letales, pero las negociaciones avanzan a paso de tortuga mientras la tecnología evoluciona a velocidad exponencial. El resultado es una brecha regulatoria cada vez mayor, donde sistemas cada vez más capaces operan en un vacío jurídico y moral.
La relación entre la IA militar y el sector privado
Un punto fundamental que mucha gente no percibe es que la Inteligencia Artificial militar depende casi por completo del sector privado. Los datos más relevantes, el conocimiento técnico más avanzado y los profesionales mejor cualificados están en empresas como Anthropic, OpenAI y Palantir, no en los laboratorios gubernamentales. Esta dinámica quedó clara desde 2017, cuando el Proyecto Maven del Pentágono buscó acelerar el uso de aprendizaje automático e integración de datos en la inteligencia militar estadounidense, dependiendo fuertemente de socios comerciales de Silicon Valley.
El Consejo de Innovación en Defensa de Estados Unidos reconoció formalmente en 2019 que, en el campo de la IA, los datos clave, el conocimiento y el personal están todos en el sector privado. Esta realidad sigue intacta en 2026, lo que significa que el gobierno necesita a las empresas tanto como las empresas necesitan los contratos gubernamentales. La diferencia es que el gobierno puede usar su poder regulatorio y financiero como palanca, mientras que las empresas tienen mucho menos margen de maniobra cuando deciden resistir.
Esta asimetría quedó totalmente expuesta con el caso de Anthropic. El Departamento de Defensa, bajo el mando del secretario Pete Hegseth, fue más allá de simplemente cancelar contratos: clasificó a Anthropic como un riesgo para la cadena de suministro, una designación rara que hasta entonces solo se había aplicado a empresas extranjeras. En la práctica, eso significa que ningún contratista, proveedor o socio que haga negocios con el ejército estadounidense puede tener ninguna actividad comercial con Anthropic. La empresa anunció que pretende impugnar esta decisión ante la justicia, pero el daño reputacional y económico ya está hecho.
IA ética presupone normas democráticas
Existe una dimensión de este debate que suele pasar desapercibida: la idea de que la Inteligencia Artificial puede ser intrínsecamente ética depende de supuestos democráticos que mucha gente da por sentados. El concepto de transparencia algorítmica, por ejemplo, es decir, ser claro y honesto sobre las reglas que usa un sistema para tomar decisiones, parte del principio de que las personas tienen derecho a saber cómo funcionan estas tecnologías, porque en una democracia el poder pertenece al pueblo.
En un régimen autocrático, sin embargo, no importa cuán transparentes sean los algoritmos. No existe la premisa de que los civiles participen en las decisiones o merezcan saber qué está haciendo el gobierno con estas herramientas. La discusión libre y pública suele considerarse una característica fundamental de las democracias liberales. El consenso puede valorarse, pero el desacuerdo constructivo e incluso el conflicto de ideas son señales de salud democrática.
Desde esta perspectiva, el deseo de Anthropic de mantener discusiones genuinas con el gobierno sobre líneas rojas éticas representaba la práctica democrática en acción. La empresa señaló tanto la voluntad de comunicación racional como el valor del desacuerdo constructivo. Cuando el gobierno respondió no con argumentos, sino con castigo económico y estigmatización pública, lo que se perdió no fue solo un contrato comercial, sino un pedazo del tejido democrático que sostiene la idea misma de una IA ética.
La ironía final: los ataques usaron la tecnología de Anthropic
Quizás el detalle más irónico, y perturbador, de toda esta historia sea lo que ocurrió pocas horas después de la denuncia pública de Trump contra Anthropic. Cuando los ataques estadounidenses contra Irán se lanzaron efectivamente, reportajes indicaron que la planificación de esas operaciones había utilizado precisamente el software de Anthropic. Es decir, la misma tecnología que el gobierno dijo que era inaceptable por las condiciones éticas impuestas por la empresa ya estaba integrada en las operaciones militares en marcha. 😶
Esta contradicción dice mucho sobre la naturaleza real de la disputa. El problema nunca fue la calidad ni la confiabilidad de la tecnología de Anthropic. El problema fue que la empresa tuvo la osadía de querer imponer condiciones sobre cómo se usaría esa tecnología. El mensaje para todo el ecosistema de IA quedó grabado en letras mayúsculas: la tecnología es bienvenida, los límites éticos no.
El efecto dominó global
El efecto dominó de este vaciamiento regulatorio va mucho más allá de las fronteras estadounidenses. Cuando la mayor potencia militar del planeta señala que la ética y la regulación son obstáculos y no protecciones, otros países se sienten legitimados a seguir el mismo camino. China, Rusia y otras naciones con programas avanzados de IA militar observan atentamente los movimientos de Washington, y la normalización del uso irrestricto de la Inteligencia Artificial en operaciones de defensa crea una carrera armamentista tecnológica donde los límites éticos se convierten en desventajas competitivas.
Este es quizá el legado más peligroso del episodio entre el Pentágono y Anthropic: no solo lo que ocurrió, sino el precedente que se estableció para todo lo que vendrá después. El orden internacional basado en reglas, que ya venía mostrando signos de fragilidad, pierde otro pilar de sustentación cuando el país que históricamente lideró la construcción de esas reglas decide que ya no se le aplican.
Lo que está en juego para el futuro de la IA
Más allá del campo de batalla, este choque entre gobierno y empresas tecnológicas revela una tensión estructural que va a definir los próximos años del desarrollo de la Inteligencia Artificial. Las mayores empresas del sector dependen de contratos gubernamentales para financiar investigaciones cada vez más caras: entrenar un modelo de lenguaje de última generación ya cuesta cientos de millones de dólares, y esa cifra solo tiende a crecer. Esta dependencia financiera crea una asimetría de poder brutal, en la que el gobierno puede básicamente dictar las reglas del juego simplemente controlando el flujo de dinero.
Anthropic lo descubrió de la forma más dura posible, y es difícil imaginar que otras empresas no estén recalculando sus propias líneas rojas en este mismo momento. La ética en IA, que ya enfrentaba resistencia por verse como un freno a la innovación, ahora se enfrenta a un adversario aún más formidable: el pragmatismo económico bajo presión política directa. Figuras influyentes de Silicon Valley como el multimillonario Marc Andreessen, autor del Manifiesto Tecno-Optimista, y Joe Lonsdale, cofundador de Palantir, celebraron la reelección de Trump como una liberación de las ataduras regulatorias. La frase de Andreessen comparando la victoria de Trump con quitar una bota del cuello de la industria tecnológica captura perfectamente el sentimiento predominante entre una parte poderosa del sector.
También hay una dimensión que afecta directamente a la confianza pública en estas tecnologías. Cuando la gente común descubre que los mismos modelos de Inteligencia Artificial que usan para escribir correos, organizar su rutina y aprender cosas nuevas se están empleando en operaciones militares sin salvaguardas transparentes, la relación de confianza con estas herramientas inevitablemente se deteriora. Eso importa porque la adopción saludable de la IA en la sociedad depende de un contrato social mínimo: las personas necesitan sentir que existe algún nivel de control, supervisión y responsabilidad sobre cómo operan estos sistemas. Sin eso, el riesgo no es solo tecnológico o militar, sino también social: una erosión gradual de la confianza que puede comprometer los beneficios reales que la Inteligencia Artificial ofrece en áreas como salud, educación y ciencia.
El momento exige una reflexión honesta sobre el tipo de futuro que estamos construyendo. La tecnología de IA en sí no es buena ni mala: refleja las intenciones y los límites impuestos por quienes la controlan. La cuestión central que el episodio entre el Pentágono, Anthropic y OpenAI pone sobre la mesa es sencilla de formular, pero extremadamente difícil de responder: ¿quién define esos límites? Si la respuesta es solamente quien tiene más poder y más dinero, sin espacio para una regulación independiente y una ética genuina, entonces estamos caminando hacia un escenario en el que la autonomía de las máquinas crece en la misma proporción en que disminuye la autonomía humana sobre ellas. Y eso, seamos sinceros, debería preocupar a todo el mundo, no solo a quienes trabajan con tecnología. 🧠
