Cuando una empresa de IA le dice no al Pentágono
Anthropic, creadora del modelo Claude, se posicionó de una forma en la que poquísimas empresas de tecnología se atreverían: rechazó términos contractuales que le darían al Pentágono libertad prácticamente total para utilizar sus modelos de inteligencia artificial en operaciones militares. Esta decisión no fue solo una cuestión comercial. Fue un acto deliberado de disidencia corporativa contra la mayor maquinaria de defensa del planeta, y las consecuencias llegaron rápido. El Departamento de Defensa de Estados Unidos clasificó a Anthropic como un riesgo en la cadena de suministro, algo que nunca había ocurrido con una empresa estadounidense de tecnología de ese calibre. En la práctica, esto significa que la compañía pasó a ser tratada casi como una amenaza para el aparato de seguridad nacional, simplemente por haber establecido límites éticos sobre cómo su tecnología podría ser utilizada.
El timing de este enfrentamiento lo vuelve todo aún más significativo. Estamos viviendo un momento en el que gobiernos de todo el mundo intentan entender cómo ejercer control sobre sistemas de inteligencia artificial cada vez más poderosos. La decisión de Anthropic de trazar una línea roja frente al uso militar irrestricto pone en evidencia una tensión fundamental: ¿quién manda realmente cuando la tecnología más transformadora de nuestra era se cruza con los intereses de seguridad nacional? La respuesta, al menos por ahora, parece ser que el gobierno estadounidense no está dispuesto a aceptar un no como respuesta.
Y cuando OpenAI, principal competidora de Anthropic, entró en el vacío y cerró un acuerdo con los militares — aceptando exactamente los términos que su rival rechazó, incluyendo una cláusula contractual que permite el uso de los modelos de IA para cualquier propósito considerado legal — quedó claro que la dinámica de mercado también puede usarse como instrumento de presión política. El CEO de OpenAI, Sam Altman, defendió la decisión en una sesión de preguntas y respuestas en la plataforma X, argumentando que las empresas privadas no deberían ser las responsables de decidir qué es o no ético en las áreas más sensibles. En sus palabras, puede parecer razonable que OpenAI defina cómo ChatGPT responde a una pregunta controvertida, pero a él no le gustaría que una empresa privada decidiera qué hacer cuando un misil nuclear viene camino a Estados Unidos.
El contrato en cuestión giraba en torno a aproximadamente 200 millones de dólares, pero el valor financiero es casi irrelevante frente a lo que está en juego. El mensaje enviado por el Pentágono fue cristalino: las empresas que no cooperen con los objetivos de defensa pueden ser marginadas, reemplazadas e hasta etiquetadas como problemas de seguridad. Esto crea un precedente peligroso, porque transforma la cooperación militar no en una elección de negocio, sino en una obligación implícita para cualquier empresa que desarrolle tecnología considerada estratégica. Y la inteligencia artificial, sin duda alguna, está en lo más alto de esa lista.
Lo que el Pentágono realmente hizo y por qué importa
Para entender la gravedad de lo ocurrido, es necesario mirar con atención la herramienta que el Departamento de Defensa usó como represalia. La designación de riesgo en la cadena de suministro fue originalmente pensada para aplicarse a tecnologías que podrían ayudar a un adversario extranjero a sabotear sistemas críticos de defensa. Nunca antes esta clasificación había sido utilizada contra una empresa estadounidense, y mucho menos como forma de castigo por discrepancias en términos contractuales.
En la práctica, esta designación significa que cualquier empresa que haga negocios con el Pentágono quedaría prohibida de mantener relaciones comerciales con Anthropic. Como señaló Dean Ball, especialista en política de IA que trabajó brevemente en el plan de acción de IA de la administración Trump, cancelar el contrato de 200 millones de dólares sería algo dentro de los derechos del gobierno. Pero ir mucho más allá y etiquetar a la empresa como riesgo en la cadena de suministro equivale, en sus palabras, a un intento de asesinato corporativo. Esto se debe a que Anthropic depende de ventas a grandes empresas del Fortune 500 que también prestan servicios al Pentágono, además de infraestructura de computación en la nube y capital de riesgo.
Varios juristas ya han señalado que esta interpretación probablemente no sobreviviría a un desafío judicial. Aun así, el daño reputacional y el efecto intimidatorio sobre otras empresas de IA son reales e inmediatos. Tras la designación, agencias como el Departamento del Tesoro, el Departamento de Estado y el Departamento de Salud anunciaron que dejarían de usar los modelos Claude de Anthropic, migrando a soluciones de OpenAI, Google y, en algunos casos, de xAI.
El fantasma de la nacionalización y el control de la IA
Este episodio reavivó un debate que mucha gente prefería mantener en segundo plano: la posibilidad de nacionalización de empresas de inteligencia artificial consideradas estratégicas para Estados Unidos. La idea puede parecer extrema para un país que históricamente defiende el libre mercado por encima de casi todo, pero la realidad es que la IA está siendo tratada cada vez más como un activo de seguridad nacional, al mismo nivel que la tecnología nuclear o la capacidad espacial.
El propio Sam Altman reconoció esta posibilidad. En sus declaraciones en la plataforma X, dijo que desde hace mucho tiempo le parece que quizás sería mejor si la construcción de una inteligencia artificial general (AGI) fuera un proyecto gubernamental, aunque ponderó que esto no parece muy probable en la trayectoria actual. Es una admisión reveladora viniendo del CEO de una de las mayores empresas de IA del mundo.
En la práctica, el enfoque del Pentágono ya se acerca a una nacionalización por otros medios. Una de las opciones que el Departamento de Defensa llegó a considerar fue usar el Defense Production Act, una ley de la era de la Guerra Fría, para obligar a Anthropic a entregar un modelo de IA en los términos preferidos por los militares — una especie de nacionalización suave de la capacidad productiva de la empresa. Combinada con la designación de riesgo en la cadena de suministro, diseñada en parte para intimidar a otras empresas de IA a aceptar los términos contractuales del Pentágono, la estrategia parece claramente adyacente a la nacionalización.
El problema con este camino es que puede destruir exactamente aquello que hace tan poderosa la innovación estadounidense en IA. Las empresas de tecnología prosperan en ambientes donde pueden experimentar, equivocarse, iterar y tomar decisiones independientes sobre la dirección de sus productos. El control ejercido directamente por el gobierno, especialmente en contextos militares, tiende a priorizar aplicaciones de corto plazo orientadas a la defensa, en detrimento de la investigación fundamental y el desarrollo de seguridad de los propios modelos. Anthropic, vale recordar, fue fundada justamente con la misión de desarrollar IA de forma más segura y responsable. Forzar a una empresa con este perfil a renunciar a sus principios fundacionales para atender demandas militares no es solo una cuestión ética — es una estrategia que puede comprometer el liderazgo tecnológico estadounidense a largo plazo, porque aleja a los mejores investigadores e ingenieros que se sienten atraídos precisamente por empresas que se toman la seguridad en serio.
Además, el escenario internacional lo vuelve todo más complejo. Si Estados Unidos empieza a tratar a sus empresas de IA como extensiones del aparato militar, otros países harán lo mismo. China ya opera con una integración mucho más estrecha entre sector privado y Estado en el desarrollo de inteligencia artificial. Europa, por su parte, ha intentado un camino regulatorio propio con el AI Act. La forma en que se resuelva esta disputa enviará una señal clara a todas las democracias que aún están formulando sus políticas de gobernanza de IA.
Disidencia corporativa y el silencio del Congreso
Quizás el aspecto más revelador de toda esta situación sea el papel de la disidencia — o mejor dicho, la falta de espacio institucional para ella. Anthropic intentó ejercer algo que, en teoría, debería ser perfectamente legítimo en una democracia: discrepar con los términos propuestos por un cliente, incluso cuando ese cliente es el gobierno federal. Pero la reacción desproporcionada del Pentágono mostró que, en la práctica, la disidencia corporativa contra intereses militares tiene un costo altísimo.
La empresa no solo perdió el contrato, sino que se ganó una etiqueta que puede perjudicar sus negocios con otros organismos gubernamentales e hasta con socios privados que dependen de contratos federales. Este tipo de represalia tiene un efecto cascada que va mucho más allá de Anthropic: sirve como advertencia para todas las demás empresas de IA de que resistirse a las demandas del Pentágono puede tener consecuencias severas y duraderas. Como Altman afirmó al justificar su acuerdo, una alianza cercana entre gobiernos y empresas que construyen esta tecnología es extremadamente importante. Pero alianza cercana y sumisión total son cosas muy diferentes.
¿Y dónde está el Congreso estadounidense en toda esta historia? Esta es probablemente la pregunta más frustrante de responder, porque la respuesta corta es: prácticamente ausente. En los tres años desde el lanzamiento de ChatGPT, los legisladores no han logrado aprobar ninguna legislación federal integral sobre inteligencia artificial. La administración Trump desmanteló las regulaciones limitadas de IA implementadas por la gestión anterior y además ha actuado para castigar a los estados que aprueban sus propias regulaciones. Este vacío legislativo es lo que permite que el Pentágono actúe con tanta libertad y que empresas como Anthropic queden esencialmente desprotegidas cuando deciden trazar límites.
Como bien señala el artículo original, la tecnología de IA avanza a la velocidad de la luz, pero los mecanismos de control democrático — legislación, supervisión parlamentaria, elecciones — se mueven a paso de tortuga. Sin un marco legal claro, cada disputa de estas se resuelve a base de fuerza política y económica, y en ese juego el Departamento de Defensa tiene una ventaja aplastante. La idea de intentar definir políticas de IA a través de negociaciones contractuales entre laboratorios y gobierno es un sustituto pobre de una gobernanza democrática de verdad, pero puede ser mejor que ninguna gobernanza en absoluto.
La cuestión de la vigilancia y la confianza pública
Existe además una capa adicional que hace esta disputa especialmente delicada: el historial de gobiernos expandiendo sus poderes de vigilancia utilizando interpretaciones elásticas de leyes existentes. A lo largo de las últimas décadas, el poder ejecutivo estadounidense fue recuperando gradualmente capacidades de vigilancia que había perdido tras los escándalos del Watergate y las audiencias del Comité Church en los años 1970. Muchas actividades militares están envueltas en secreto, lo que hace la supervisión democrática y la rendición de cuentas extremadamente difíciles.
Esta tendencia constante de empujar los límites de lo que la ley permite ha hecho que parte del público pierda la confianza en las intenciones del gobierno. No es sorpresa, por tanto, que algunas personas confíen más en un ejecutivo de tecnología aparentemente bienintencionado y brillante, como el CEO de Anthropic Dario Amodei, que en burócratas gubernamentales para definir las políticas correctas de uso de la IA.
Una investigación reciente publicada por investigadores de la ETH de Zúrich, de la propia Anthropic y del programa MATS reveló que agentes de IA con acceso total a internet consiguen reidentificar usuarios pseudónimos de internet a gran escala, analizando entrevistas y cruzando información con publicaciones en foros como Hacker News, Reddit y perfiles de LinkedIn. La IA lo hizo en minutos, mientras que un investigador humano tardaría horas por cada identificación, alcanzando un 90% de precisión y un 68% de recall. Este tipo de capacidad es exactamente lo que preocupaba a Anthropic en las negociaciones con el Pentágono: reidentificar usuarios anónimos a partir de datos públicamente disponibles o comercialmente adquiribles no era algo posible a gran escala antes, pero puede no encajar en la definición clásica de vigilancia masiva.
Data centers en la línea de fuego
Como si este escenario no fuera lo suficientemente complejo, el conflicto ganó una dimensión inesperadamente concreta cuando data centers de Amazon Web Services en los Emiratos Árabes Unidos y en Baréin fueron alcanzados por misiles o drones iraníes. Aunque no se sabe exactamente por qué los iraníes atacaron estas instalaciones, se especula que el objetivo era interrumpir el uso de los modelos Claude de Anthropic por parte del ejército estadounidense. A pesar de que el Pentágono había etiquetado a Anthropic como riesgo y declarado que cesaría el uso de Claude de inmediato, reportajes del Wall Street Journal y de Axios indicaron que los militares seguían usando Claude para procesamiento de objetivos en la Operación Epic Fury contra Irán, en redes clasificadas alojadas por AWS.
Esto plantea una cuestión que será cada vez más relevante en conflictos futuros: a medida que la IA se vuelve esencial para operaciones militares, los data centers — incluso aquellos muy alejados de las líneas de frente — pasan a ser objetivos estratégicos legítimos. La infraestructura digital ya no es solo infraestructura comercial; es, en la práctica, infraestructura de combate 😬.
Qué significa esta pelea para el futuro de la inteligencia artificial
Independientemente de cómo se resuelva esta disputa específica en los tribunales o en las mesas de negociación, el enfrentamiento entre Anthropic y el Pentágono ya cambió la conversación sobre inteligencia artificial de forma irreversible. Hasta hace poco, el debate sobre IA giraba principalmente en torno a capacidades técnicas, riesgos existenciales y regulación de mercado. Ahora estamos discutiendo abiertamente la posibilidad de nacionalización de tecnología, los límites de la autonomía corporativa frente a intereses de Estado y el derecho de una empresa a simplemente decir que no.
Mientras tanto, OpenAI cerró una ronda de financiamiento de 110 mil millones de dólares que valoró a la empresa en 730 mil millones, con inversiones de SoftBank, Amazon y Nvidia. Amazon invirtió 50 mil millones, vinculando parte del aporte a la compra de chips Trainium y al cumplimiento de hitos como AGI o salida a bolsa. Este movimiento refuerza cómo el ecosistema de IA se está reconfigurando rápidamente alrededor de las relaciones con gobiernos y grandes infraestructuras de nube.
Estas son cuestiones que van a moldear no solo el sector tecnológico, sino el propio funcionamiento de las democracias en las próximas décadas. La forma en que gobiernos, empresas y sociedad civil negocien estos límites determinará si la inteligencia artificial será desarrollada con frenos y contrapesos o si será capturada por intereses militares y políticos sin ninguna transparencia.
Para quienes siguen el sector de IA, este episodio es un recordatorio importante de que la tecnología nunca existe aislada del poder. Modelos de lenguaje, sistemas de visión computacional y agentes autónomos son herramientas increíblemente poderosas, y el control sobre quién puede usarlos y cómo es, en última instancia, una cuestión política. Anthropic tomó una decisión que puede costar caro a corto plazo, pero que también puede inspirar un movimiento más amplio por la transparencia y la responsabilidad en el desarrollo de IA. Como el propio Altman reconoció, fomentar desconfianza y conflicto entre el gobierno y las personas que construyen sistemas avanzados de IA parece una pésima idea en un momento en que esta tecnología amenaza con cambios sin precedentes en la economía y la sociedad.
Lo que ocurra a partir de aquí depende de muchos factores — presión pública, acción legislativa, posicionamiento de otras empresas y la disposición de los gobiernos de aceptar que la disidencia no es insubordinación, sino parte esencial de cómo funcionan las sociedades libres 🤔.
