Cómo se desmoronaron las negociaciones entre Anthropic y el Pentágono, y cómo OpenAI entró en juego
Lo que debía ser un hito en la colaboración entre la inteligencia artificial y la defensa nacional terminó convirtiéndose en uno de los episodios más turbulentos en la relación entre Silicon Valley y el gobierno de Estados Unidos en los últimos años. Las negociaciones entre Anthropic y el Departamento de Defensa de Estados Unidos para un contrato de 200 millones de dólares simplemente implosionaron en los últimos minutos de un plazo ajustado, dejando tras de sí una estela de acusaciones públicas, rivalidades personales y un proceso judicial que podría redefinir los límites de la IA en el sector militar. Y en medio de todo eso, OpenAI apareció para cerrar un acuerdo relámpago con el Pentágono, alimentando todavía más la polémica. Vamos a meternos en la trastienda de esta historia. 👀
El memorando que lo cambió todo: cómo el Pentágono abrió el camino para la IA militar
Todo empezó el 9 de enero, cuando el secretario de Defensa Pete Hegseth publicó un memorando interno en el que ordenaba que el Departamento de Defensa acelerara la adopción de herramientas de inteligencia artificial en sus operaciones. El documento no era solo otra directriz burocrática: representaba un cambio concreto en la postura del gobierno estadounidense, que empezó a ver la IA generativa como una pieza central en la estrategia de defensa nacional.
El memorando era directo: la IA debía integrarse de forma amplia en las operaciones militares, y las empresas tecnológicas debían ofrecer sus herramientas sin restricciones. Para dejar el mensaje todavía más claro, Hegseth colocó por los pasillos del Pentágono carteles generados por inteligencia artificial con su propia imagen y la frase I want you to use A.I., una referencia obvia al clásico cartel de reclutamiento del Tío Sam. El mensaje era imposible de ignorar.
En la práctica, ese memorando significaba que todas las empresas de IA que ya participaban en un programa piloto del Pentágono tendrían que renegociar sus contratos. Anthropic, OpenAI, Google y xAI formaban parte de ese programa, pero Anthropic tenía una posición destacada. Era la única empresa que ya había desplegado su tecnología para operar en sistemas clasificados, y su modelo Claude estaba siendo ampliamente utilizado por analistas de defensa. Eso colocó a Anthropic en el centro de las renegociaciones y, en consecuencia, en el ojo del huracán.
El contrato de 200 millones de dólares y las líneas rojas de Anthropic
El contrato propuesto rondaba los 200 millones de dólares y contemplaba acceso privilegiado a Claude para su uso en análisis de datos, logística militar y operaciones de inteligencia. Del lado del Pentágono, la negociación estaba liderada por Emil Michael, CTO del Departamento de Defensa. Michael es una figura conocida en el ecosistema tech: ex alto ejecutivo de Uber, se incorporó al Departamento de Defensa en mayo como director de tecnología, después de haber trabajado como asistente especial en el Pentágono durante la administración Obama.
El problema central de las negociaciones quedó claro desde las primeras rondas. El Departamento de Defensa exigía un uso irrestricto de la tecnología de Anthropic, sin limitaciones impuestas por la empresa. Eso incluía la posibilidad de usar Claude para la recopilación y el análisis de datos comerciales no clasificados de ciudadanos estadounidenses, como datos de geolocalización e historial de navegación web, además de aplicaciones en sistemas de armas y vigilancia.
Anthropic mantenía una postura firme al respecto. Desde su fundación, la empresa sostenía una política de uso aceptable que prohibía explícitamente dos cosas: el uso de sus modelos para la vigilancia masiva de ciudadanos estadounidenses y el despliegue en sistemas de armas autónomas sin supervisión humana. Para Dario Amodei, CEO de Anthropic, esas no eran simples directrices corporativas negociables, sino líneas rojas que definían la identidad de la compañía.
El Departamento de Defensa, por su parte, argumentaba que ningún contratista privado debía tener el poder de decidir cómo sus herramientas podían ser utilizadas legalmente por el gobierno. Era un bloqueo filosófico que se traducía en cláusulas contractuales imposibles de conciliar.
La reunión en el Pentágono que no logró calentar el ambiente
El 24 de febrero, Pete Hegseth convocó una reunión presencial con Dario Amodei en el Pentágono para intentar encontrar una salida. Según personas familiarizadas con las discusiones, el encuentro duró menos de una hora y ambos hombres mostraron poca cordialidad. El ambiente era tenso, y quedó claro que las diferencias iban más allá de las cláusulas del contrato: había una divergencia profunda sobre el papel de la inteligencia artificial en la guerra y en la seguridad nacional.
Al final de la conversación, Hegseth lanzó un ultimátum: si Anthropic no llegaba a un acuerdo con el Pentágono antes de las 17:01 del viernes siguiente, la empresa sería clasificada como un riesgo para la cadena de suministro. Conviene decir que esa clasificación históricamente se ha reservado a empresas extranjeras que el gobierno estadounidense considera amenazas para la seguridad nacional; nunca se había utilizado contra una empresa estadounidense. Hegseth también mencionó la posibilidad de invocar la Defense Production Act para obligar a Anthropic a cooperar, aunque esa amenaza fue abandonada más tarde.
El viernes que nadie va a olvidar: la trastienda del colapso
Las negociaciones entre Anthropic y el Pentágono se arrastraron durante semanas, con equipos jurídicos de ambos lados intercambiando versiones del contrato casi a diario. Según fuentes cercanas a las conversaciones, el documento llegó a tener acordada la gran mayoría de sus términos. Los puntos sobre infraestructura técnica, niveles de acceso, calendario de implementación y valores de pago estaban prácticamente cerrados. El bloqueo residía en un área muy específica: la cuestión de la vigilancia legal de estadounidenses.
El jueves anterior al plazo, Dario Amodei redobló su apuesta por la seguridad en IA. En un comunicado público, declaró que Anthropic no podía, en buena conciencia, aceptar las exigencias del Pentágono. Argumentó que, en un conjunto limitado de casos, la inteligencia artificial puede socavar, en lugar de defender, los valores democráticos, y que algunos usos simplemente quedaban fuera de lo que la tecnología actual puede hacer de forma segura y confiable.
La respuesta de Emil Michael llegó esa misma noche y fue brutal. En redes sociales, Michael llamó a Amodei mentiroso y dijo que tenía un complejo de Dios. Publicó que Amodei quería controlar personalmente el uso militar de Estados Unidos y que estaba dispuesto a poner en riesgo la seguridad nacional del país. El tono personal de las acusaciones sorprendió a mucha gente en el ecosistema de tecnología y defensa.
Cuando llegó el viernes, los ejecutivos de Anthropic todavía creían que un acuerdo era posible. Según personas de ambos lados de la negociación, las dos partes estaban separadas por apenas unas pocas palabras en la cláusula sobre vigilancia. Anthropic estaba dispuesta a permitir que su tecnología fuera utilizada por la Agencia de Seguridad Nacional, NSA para material clasificado recopilado bajo la Foreign Intelligence Surveillance Act, FISA. Pero la empresa quería una promesa jurídicamente vinculante del Pentágono de que su tecnología no se usaría para procesar datos comerciales no clasificados de ciudadanos estadounidenses, como información de geolocalización y navegación web.
El Pentágono, por su parte, quería exactamente lo contrario: que Anthropic permitiera la recopilación y el análisis masivo de ese tipo de datos comerciales.
Los minutos finales y el as bajo la manga de Emil Michael
Para complicar todavía más la situación, el presidente Donald Trump publicó un post en redes sociales el viernes por la mañana informando a Hegseth de que había preparado un mensaje desacreditando a Anthropic y ordenando que todas las agencias gubernamentales dejaran de trabajar con la empresa en un plazo de seis meses. Incluso después de que Trump publicara ese mensaje a las 15:47, ambos lados siguieron conversando.
Emil Michael estaba en una llamada con ejecutivos de Anthropic cuando pidió hablar directamente con Dario Amodei para resolver la cuestión de las palabras finales del contrato. La respuesta que recibió fue que Amodei estaba en una reunión con su equipo ejecutivo y necesitaba más tiempo. Michael no quedó satisfecho con esa respuesta.
Y aquí entra el detalle que lo cambia todo: Michael tenía un as bajo la manga. Mientras negociaba con Anthropic, también venía trabajando en paralelo en un acuerdo alternativo con OpenAI. Al día siguiente de la tensa reunión entre Hegseth y Amodei en el Pentágono, Sam Altman llamó a Michael para discutir un acuerdo para su empresa. En apenas un día, ambos ya habían esbozado un borrador de contrato. OpenAI aceptó la exigencia del Pentágono de que su IA pudiera usarse para todos los fines legales, pero también negoció el derecho a implementar salvaguardas técnicas en sus sistemas para ajustarse a sus principios de seguridad.
Cuando pasó el plazo de las 17:01 del viernes, el Departamento de Defensa ya no dio más tiempo a Anthropic. A las 17:14, Pete Hegseth anunció que había designado a Anthropic como un riesgo de seguridad y que la empresa quedaría impedida de trabajar con el gobierno de Estados Unidos. En sus palabras publicadas en redes sociales: Los combatientes de Estados Unidos nunca serán rehenes de los caprichos ideológicos de las big tech.
OpenAI entra en escena y la polémica estalla
Esa misma noche de viernes, mientras los abogados de Anthropic comenzaban a preparar una demanda contra el Pentágono, Sam Altman hablaba por teléfono con Emil Michael para cerrar los detalles del acuerdo de OpenAI con el Departamento de Defensa. A las 22:00, Altman anunció en redes sociales que su empresa había cerrado un acuerdo con el Pentágono para suministrar sus tecnologías de IA a sistemas clasificados. Pete Hegseth republicó el anuncio de Altman poco después.
La rapidez con la que ocurrió todo generó una ola de críticas. El sábado, Altman invitó a la gente a hacer preguntas sobre el acuerdo en X, antes Twitter, en un intento por contener la reacción negativa. Muchos cuestionaron cómo OpenAI podía firmar un contrato con el Pentágono y aun así mantener sus principios de seguridad. Otros preguntaron si el acuerdo realmente protegía los modelos de IA de la empresa frente a usos indebidos.
La respuesta de Altman fue pragmática: No queremos la capacidad de opinar sobre una acción militar específica y legal. Pero sí queremos mucho la capacidad de usar nuestra experiencia para diseñar un sistema seguro.
Para muchos observadores, esa respuesta dejó al descubierto la diferencia fundamental entre las dos empresas. Mientras Anthropic trazó líneas rojas sobre lo que su tecnología podía o no podía hacer, OpenAI adoptó una postura más flexible, aceptando que el gobierno determine los usos legales y reservándose solo el papel de implementar protecciones técnicas.
Rivalidades personales que echaron más leña al fuego
No se puede contar esta historia sin hablar de las rivalidades personales que atravesaron cada etapa de las negociaciones. Emil Michael, Dario Amodei y Sam Altman se conocen desde hace años en el circuito empresarial de Silicon Valley, y la relación entre ellos nunca fue precisamente amistosa.
Amodei y Altman, ambos de 40 años, trabajaron juntos en OpenAI antes de que Amodei saliera en 2021 para fundar Anthropic, llevándose consigo a varios investigadores de primer nivel. La salida estuvo motivada por profundas diferencias sobre el enfoque de seguridad en el desarrollo de modelos de lenguaje. Desde entonces, ambos son rivales declarados, compitiendo tanto por talento como por contratos en el mercado de la IA.
Michael, por su parte, tiene 53 años y arrastra la reputación de negociador agresivo, una herencia de sus tiempos como vicepresidente sénior de Uber, donde estuvo involucrado en controversias que marcaron a la empresa durante su etapa más turbulenta. Según personas con conocimiento de las negociaciones, Michael tenía una clara preferencia por Altman, que venía cortejando activamente a la administración Trump, en detrimento de Amodei, cuyas posturas sobre seguridad y ética él consideraba obstáculos innecesarios.
Esa mezcla de filosofías distintas sobre IA, egos inflados y desconfianza mutua convirtió lo que podría haber sido una negociación técnica y jurídica en un drama personal con consecuencias geopolíticas.
Demanda judicial y el futuro de la IA en el sector de defensa
Ese mismo viernes, pocas horas después del colapso de las negociaciones, Anthropic anunció que demandaría al Pentágono por la decisión de clasificarla como un riesgo para la cadena de suministro. La medida no tiene precedentes históricos. Esa designación siempre se había reservado para empresas extranjeras que el gobierno estadounidense considera amenazas para la seguridad nacional, como ciertos fabricantes chinos de telecomunicaciones. Nunca se había aplicado a una empresa estadounidense.
La demanda abrió un debate que va mucho más allá de las partes implicadas. La cuestión central es esta: ¿Tienen las empresas tecnológicas derecho a mantener políticas de uso ético incluso cuando trabajan con el gobierno federal en contratos de defensa? ¿O la seguridad nacional justifica cualquier uso tecnológico que el gobierno considere legal?
El caso también reavivó recuerdos del Project Maven de Google en 2018, cuando empleados de la empresa se rebelaron contra el uso de IA para el análisis de imágenes de drones militares. En aquel momento, Google dio marcha atrás. Pero Anthropic fue más allá al llevar la disputa al terreno jurídico, desafiando abiertamente el poder del Pentágono para dictar los términos de uso de la tecnología.
Mientras tanto, agencias de inteligencia estadounidenses, incluida la CIA, que ya utiliza la tecnología de Anthropic, han estado presionando a ambas partes para que lleguen a un acuerdo. Algunos funcionarios del gobierno, tanto actuales como antiguos, han dicho que siguen confiando en que pueda encontrarse un punto intermedio.
Qué cambia a partir de ahora
Los efectos de esta historia siguen desarrollándose, pero los impactos ya son visibles en varios niveles. Dentro de Silicon Valley, el episodio reavivó el debate sobre hasta dónde deben llegar las empresas de IA para atender las demandas gubernamentales. En el Congreso de Estados Unidos, legisladores de ambos partidos empezaron a discutir la necesidad de una legislación que defina límites claros para el uso de la inteligencia artificial en operaciones de defensa y vigilancia.
En el mercado, Anthropic vio crecer su reputación entre desarrolladores e investigadores que valoran el enfoque de la seguridad ante todo, mientras que OpenAI empezó a enfrentar cuestionamientos más duros sobre su disposición a flexibilizar principios a cambio de ingresos del gobierno. Conviene recordar que OpenAI también se enfrenta a una demanda presentada por The New York Times por violación de derechos de autor relacionada con el entrenamiento de sus modelos de IA, otro frente de batalla legal para la empresa de Altman.
Hay algo que queda claro en toda esta historia: el colapso del contrato entre Anthropic y el Pentágono no fue solo un negocio que salió mal. Fue un punto de inflexión en la forma en que la sociedad piensa sobre el papel de la inteligencia artificial en el poder militar, sobre los límites éticos de la tecnología y sobre quién, al final de cuentas, tiene la responsabilidad, y el valor, de decir que no. 🔍
