Claude sigue activo en operaciones militares incluso tras la orden de prohibición
La inteligencia artificial Claude, desarrollada por Anthropic, está siendo utilizada de forma activa por el Pentágono en las operaciones militares de Estados Unidos contra Irán. La información provino de dos fuentes con conocimiento directo sobre el uso de IA por parte del ejército estadounidense en una entrevista con CBS News. Según los relatos, la herramienta fue empleada durante los ataques realizados el pasado fin de semana y permanece en funcionamiento en las operaciones en curso. El caso plantea una serie de interrogantes sobre el papel que los modelos de lenguaje de gran escala desempeñan hoy dentro de la infraestructura militar más avanzada del planeta.
Lo que hace esta situación aún más sorprendente es el timing de todo esto. El uso de Claude por parte del Pentágono ocurre incluso después de que el gobierno Trump anunciara una prohibición federal de la tecnología de Anthropic, otorgando a las agencias gubernamentales un plazo de seis meses para abandonar completamente la plataforma. En otras palabras, la misma tecnología que está siendo oficialmente prohibida en las estructuras del gobierno federal sigue funcionando en operaciones militares reales contra Irán. Es una contradicción que expone de manera muy clara la complejidad de la relación entre el sector de defensa y las empresas de inteligencia artificial del sector privado.
La noticia sobre el uso de Claude en las operaciones contra Irán fue reportada inicialmente por el Wall Street Journal, y posteriormente confirmada por CBS News con sus propias fuentes. Hasta el momento, el Pentágono no ha detallado públicamente de qué manera exacta la herramienta de IA está siendo empleada en el contexto del conflicto. Esta falta de transparencia contribuye al clima de incertidumbre que rodea toda la situación, especialmente cuando se considera que el uso ocurre en paralelo a una disputa pública entre el gobierno estadounidense y la empresa creadora de la tecnología.
Esta revelación pone en evidencia algo que muchos analistas ya sospechaban: la dependencia creciente del aparato militar estadounidense respecto a herramientas de IA comerciales. No estamos hablando de un experimento o de un piloto de pruebas. Estamos hablando de una aplicación en un escenario real de conflicto, donde decisiones operativas están siendo, de alguna forma, respaldadas por un modelo de lenguaje creado inicialmente para uso civil. Y eso cambia completamente la forma en que entendemos el alcance y la influencia de estas tecnologías en el mundo actual.
El conflicto entre Anthropic y el Departamento de Defensa
La raíz de esta tensión comenzó cuando Anthropic intentó establecer límites claros para el uso militar de Claude. La empresa incluyó en sus políticas de uso aceptable una serie de restricciones que iban directo al punto: prohibición de vigilancia masiva contra ciudadanos estadounidenses, veto al uso en sistemas de armas totalmente autónomos y otras salvaguardas pensadas para garantizar que la tecnología no fuera empleada de formas que la empresa considerara éticamente problemáticas. Para Anthropic, que desde su fundación se posiciona como una empresa enfocada en seguridad de IA, estas restricciones eran un reflejo directo de sus principios. Pero para el Pentágono, la historia era bien diferente.
La respuesta del Departamento de Defensa fue objetiva y sin rodeos. El Pentágono exigió acceso irrestricto al modelo para todos los fines que fueran considerados legales dentro de la legislación estadounidense. El argumento central del Departamento de Defensa era directo: ya existen leyes que prohíben la vigilancia masiva de ciudadanos estadounidenses, y las políticas internas del propio Pentágono ya restringen el uso de armas totalmente autónomas. Desde la perspectiva de los militares, las preocupaciones de Anthropic eran, por lo tanto, redundantes e no materiales. Desde el punto de vista militar, la idea de que una empresa privada pudiera dictar los términos de cómo una herramienta sería utilizada en operaciones de seguridad nacional no era aceptable.
El impasse estaba creado, y a partir de ese momento la situación escaló muy rápido. El secretario de Defensa Pete Hegseth entró en escena y clasificó a Anthropic como un riesgo en la cadena de suministro, una terminología pesada que normalmente se reserva para proveedores considerados poco confiables o potencialmente hostiles a los intereses estadounidenses. Esta clasificación conlleva un peso institucional enorme y señala a todo el ecosistema de defensa que hacer negocios con Anthropic puede ser problemático.
Emil Michael, el director de tecnología del Pentágono, defendió la posición del Departamento de Defensa en entrevista con CBS News. Según él, en algún nivel, es necesario confiar en que los militares harán lo correcto. Michael también detalló que el Departamento de Defensa utiliza Claude para sintetizar documentos, hacer la logística más eficiente y optimizar cadenas de suministro, entre otras tareas. Estas aplicaciones pueden parecer burocráticas a primera vista, pero en un escenario de operaciones militares activas, la capacidad de procesar información rápidamente y organizar la logística de forma eficiente puede tener un impacto directo en el desarrollo de las acciones sobre el terreno.
La posición de Anthropic sobre líneas rojas
Del otro lado de la disputa, el CEO de Anthropic, Dario Amodei, explicó a CBS News que la empresa buscó trazar líneas rojas en el uso gubernamental de su tecnología. Según Amodei, Anthropic cree que cruzar esas líneas sería contrario a los valores estadounidenses, y la empresa quiso posicionarse en defensa de esos mismos valores. Fue más allá y afirmó que discrepar del gobierno es lo más americano que existe, y que Anthropic se considera patriota en todo lo que hizo a lo largo de este proceso.
Esta declaración es interesante porque reposiciona la narrativa. Mientras el gobierno enmarca a Anthropic como un obstáculo o incluso una amenaza, la empresa se coloca como defensora de principios fundamentales de la democracia estadounidense. Es un choque de narrativas que va mucho más allá de una simple negociación comercial. Estamos hablando de una disputa sobre quién tiene la legitimidad para definir los límites del uso de inteligencia artificial en contextos de defensa y seguridad nacional.
Con este encuadre, el camino hacia la orden ejecutiva estaba allanado. El presidente Trump firmó el documento que prohíbe oficialmente la tecnología de Anthropic en las agencias federales, estableciendo el plazo de seis meses para la transición completa. Sin embargo, la realidad sobre el terreno parece contar una historia diferente a la que sugiere el papel oficial. Claude sigue operando en las acciones militares contra Irán, lo que indica que desconectar un sistema de inteligencia artificial ya integrado en operaciones en curso no es algo que se haga de la noche a la mañana, independientemente de lo que diga una orden ejecutiva.
La cuestión de Israel y el uso de IA en conflictos
Un punto que permanece abierto es si el ejército israelí también está utilizando Claude en este conflicto. CBS News contactó a un portavoz de las Fuerzas de Defensa de Israel, pero no obtuvo respuesta hasta el momento de la publicación. Lo que se sabe es que Israel ya utiliza inteligencia artificial en operaciones militares de forma activa. Las fuerzas israelíes cuentan con su propio sistema de identificación de objetivos, conocido como Lavender, que fue empleado durante la guerra en Gaza.
La existencia de sistemas como Lavender y el uso de Claude por parte del Pentágono muestran que la aplicación de IA en escenarios de guerra no es un fenómeno aislado. Diferentes países y fuerzas militares están incorporando estas tecnologías de maneras variadas, cada una con sus propios protocolos y límites — o, en algunos casos, con la ausencia de ellos. Este escenario refuerza la urgencia de discusiones internacionales sobre regulación y gobernanza de inteligencia artificial en contextos militares.
Lo que esto revela sobre el futuro de la IA en operaciones militares
Toda esta situación nos dice mucho sobre cómo la inteligencia artificial se ha convertido en un componente esencial de los engranajes militares modernos. El hecho de que el Pentágono no pueda simplemente apagar Claude y seguir adelante demuestra que la integración de estas herramientas va mucho más allá de un simple software auxiliar. Según el sitio especializado en seguridad nacional Defense One, citando múltiples fuentes familiarizadas con la disputa entre el Departamento de Defensa y Anthropic, puede llevar tres meses o más para que el Pentágono sustituya las capacidades de Claude por otra plataforma de IA.
Cuando un modelo de IA se incorpora a flujos de trabajo operativos en escenarios de conflicto real, pasa a formar parte de la infraestructura crítica. Eliminarlo exige planificación, tiempo y, principalmente, una alternativa viable que ofrezca capacidades equivalentes. Y ese es un detalle que mucha gente subestima cuando debate el tema de regulación de IA en el contexto de defensa y seguridad nacional. No basta con firmar un decreto — es necesario tener un plan B listo para funcionar.
Otro punto que merece destaque es el precedente que este caso crea para toda la industria de inteligencia artificial. Anthropic intentó mantener sus principios de seguridad y uso responsable, y la consecuencia fue ser etiquetada como un riesgo y tener su tecnología oficialmente prohibida en el gobierno federal. Esto envía un mensaje claro a otras empresas del sector: si intentas imponer límites éticos al uso de tu tecnología por parte del gobierno, puedes terminar enfrentando represalias. Es una dinámica preocupante que podría acabar desalentando a otras compañías de adoptar posturas similares en el futuro, lo que tendría implicaciones directas para la gobernanza y la seguridad de sistemas de IA utilizados en contextos de alto riesgo.
El caso del uso de Claude en las operaciones contra Irán también plantea cuestiones prácticas sobre transparencia y rendición de cuentas. Si un modelo de inteligencia artificial está apoyando decisiones en escenarios de conflicto armado, ¿quién es responsable cuando algo sale mal? ¿La empresa que creó el modelo? ¿El Pentágono que lo está utilizando? ¿Los operadores que interactúan con la herramienta en el día a día? Estas preguntas no tienen respuestas simples, y el hecho de que el sistema siga funcionando incluso durante un proceso de prohibición oficial hace todo aún más confuso. Lo que queda claro es que la relación entre gobiernos y empresas de IA está entrando en un territorio completamente nuevo, donde las reglas todavía se están escribiendo en tiempo real — y, en algunos casos, mientras los misiles ya están volando 🚀
Una dependencia difícil de deshacer
En el fondo, lo que esta historia muestra es que la inteligencia artificial ya cruzó un punto de no retorno en el contexto militar. Claude no es solo una curiosidad tecnológica siendo probada en un laboratorio del Pentágono. Es una pieza funcional dentro de operaciones que están ocurriendo ahora mismo, en uno de los escenarios geopolíticos más tensos del momento. Anthropic se encuentra en una posición paradójica: su tecnología es considerada lo suficientemente buena para apoyar operaciones de guerra, pero la empresa en sí es tratada como un problema por querer establecer límites al uso de esa misma tecnología.
Para quienes siguen el mercado de inteligencia artificial, este episodio funciona como un recordatorio poderoso de que el desarrollo de IA no ocurre en el vacío. Las decisiones de diseño, las políticas de uso y los principios éticos de una empresa pueden chocar frontalmente con los intereses de Estados soberanos — y cuando eso sucede, la balanza de poder no siempre se inclina hacia el lado de la tecnología. El caso Anthropic versus Pentágono puede muy bien convertirse en un hito en la historia de la regulación de IA, definiendo cómo gobiernos y empresas van a negociar los límites del uso de esta tecnología en los próximos años.
Por ahora, Claude sigue activo. Irán continúa siendo objetivo de operaciones militares apoyadas por inteligencia artificial, y la orden de prohibición sigue oficialmente en vigor, aunque en la práctica todavía no haya surtido efecto completo. Es el tipo de situación que parece un guion de ciencia ficción, pero que está ocurriendo de verdad, con consecuencias reales para todos los involucrados. Y si hay algo que este episodio deja en evidencia es que el debate sobre IA en contextos militares ya no puede ser tratado como algo lejano o hipotético. Ya llegó — y es más complejo de lo que cualquier modelo de lenguaje podría haber previsto.
