Qué hay detrás de la tensión entre Anthropic y el Pentágono
Anthropic, creadora del asistente Claude, se posicionó de forma firme al negar el uso de su inteligencia artificial para fines como vigilancia masiva y desarrollo de armas completamente autónomas. Esta decisión no fue bien recibida por el Pentágono, que rápidamente clasificó a la empresa como un riesgo dentro de la cadena de suministros de defensa de Estados Unidos. En la práctica, esto significa que Anthropic pasó a ser vista como una proveedora no confiable a ojos del Departamento de Defensa, lo que puede tener consecuencias serias para sus contratos y alianzas futuras con el gobierno estadounidense.
La decisión del gobierno Trump de bloquear a Anthropic y designarla como un supply chain risk ocurrió el viernes, y pocas horas después comenzaron las operaciones de combate en Irán. El gobierno de Estados Unidos justificó los ataques afirmando que eran necesarios para neutralizar amenazas inminentes de los programas nucleares y de misiles iraníes. La coincidencia en los tiempos hizo todo aún más delicado. Los ataques militares amplificaron el debate sobre el papel de las empresas de tecnología en operaciones de guerra y seguridad nacional. De repente, la decisión de Anthropic de trazar una línea ética cobró un peso enorme, porque quedó en evidencia que las herramientas de inteligencia artificial están cada vez más cerca de los campos de batalla.
Lo que llamó la atención fue que la presión no vino de competidores ni del mercado, sino directamente de una de las mayores estructuras militares del planeta. El mensaje del Pentágono fue claro: las empresas que no colaboran con las demandas de defensa pueden ser tratadas como obstáculos. Esto abrió un precedente preocupante para todo el sector tecnológico, ya que otras empresas que desarrollan modelos de lenguaje y sistemas de IA podrían enfrentar situaciones similares si se niegan a atender solicitudes parecidas.
La ola de apoyo que sorprendió a Silicon Valley
Lo que nadie esperaba es que la respuesta llegaría tan rápido y con tanta fuerza. En cuestión de días, cartas abiertas comenzaron a circular entre empleados de empresas como Google, OpenAI y otras gigantes del sector, pidiendo límites claros sobre cómo sus organizaciones colaboran con el gobierno estadounidense en cuestiones militares. El apoyo a la posición de Anthropic vino desde dentro de las propias empresas que, en teoría, podrían beneficiarse si esta perdiera terreno en el mercado. Esto demuestra que la preocupación por el uso responsable de la inteligencia artificial trasciende la competencia comercial y toca valores que muchos profesionales consideran innegociables.
El manifiesto bautizado como We Will Not Be Divided reunió casi 900 firmas en tiempo récord. El viernes, el documento contaba con unos pocos cientos de nombres, y para el lunes ya sumaba casi 900, siendo alrededor de 100 empleados de OpenAI y cerca de 800 de Google. El texto va directo al grano y afirma que el Departamento de Defensa está intentando dividir a las empresas por el miedo a que algún competidor ceda ante las presiones. La carta señala que esa estrategia solo funciona si nadie sabe dónde se posicionan los demás, y que el objetivo del manifiesto es justamente crear un entendimiento compartido y solidaridad frente a estas presiones.
Además del We Will Not Be Divided, una segunda carta abierta también ganó tracción. Cientos de profesionales de tecnología firmaron un documento pidiendo al Departamento de Defensa que retire la designación de Anthropic como riesgo en la cadena de suministros. La lista de firmantes incluye decenas de empleados de OpenAI, además de profesionales de empresas como Salesforce, Databricks, IBM y Cursor. Este documento pide que el Congreso estadounidense examine si el uso de estas autoridades extraordinarias contra una empresa tecnológica norteamericana es apropiado, y defiende que Anthropic y otras empresas privadas no deben sufrir represalias por negarse a ceder ante las demandas gubernamentales.
Lo más interesante es que esta solidaridad no se limitó a ingenieros y desarrolladores. Investigadores de seguridad de IA, diseñadores de producto, gerentes de proyecto e incluso profesionales de áreas administrativas se sumaron al movimiento. El mensaje colectivo es que el apoyo a Anthropic no se trata de defender a una empresa específica, sino de proteger un principio que afecta a toda la industria: el derecho de una organización tecnológica a rechazar demandas que entren en conflicto con sus valores éticos sin sufrir represalias institucionales.
El papel de Google y la sombra del Project Maven
Para Google, esta nueva ola de protestas reabre heridas antiguas. Según un reportaje del New York Times, la empresa está en negociaciones con el Pentágono para llevar su modelo de IA Gemini a un sistema clasificado del gobierno. Si esto se concreta, sería un paso significativo que reavivaría una pelea interna que ya lleva años dentro de la empresa.
Más de 100 empleados de Google que trabajan directamente con tecnología de inteligencia artificial habrían firmado una carta a la dirección de la empresa la semana pasada, expresando preocupaciones sobre el trabajo junto al Departamento de Defensa. Pidieron que Google trace las mismas líneas rojas que Anthropic, es decir, rechazar el uso de su IA para vigilancia masiva o armas autónomas.
Jeff Dean, científico jefe de Google, recibió el memorando y aparentemente mostró simpatía con al menos parte de las preocupaciones planteadas. En una publicación en X, Dean escribió que la vigilancia masiva viola la Cuarta Enmienda de la Constitución estadounidense y tiene un efecto intimidante sobre la libertad de expresión. Añadió que los sistemas de vigilancia son propensos a un uso indebido con fines políticos o discriminatorios.
Dean ya vivió situaciones parecidas dentro de Google. En 2018, la empresa enfrentó una revuelta interna a causa del Project Maven, un programa del Pentágono que utilizaba inteligencia artificial para analizar imágenes captadas por drones. Después de que miles de empleados protestaran, Google dejó que el contrato expirara sin renovación y, a continuación, estableció sus famosos Principios de IA, definiendo cómo podía utilizarse su tecnología.
Pero la cuestión nunca se resolvió realmente. En 2024, Google despidió a más de 50 empleados tras protestas relacionadas con el Project Nimbus, un contrato conjunto de 1.200 millones de dólares con Amazon para servicios al gobierno israelí. Los ejecutivos de Google siempre afirmaron que el contrato no violaba los Principios de IA de la empresa. Sin embargo, documentos y reportajes mostraron que el acuerdo permitía proporcionar a Israel herramientas de IA que incluían categorización de imágenes, rastreo de objetos e incluso provisiones para fabricantes de armas estatales. Un reportaje del New York Times de diciembre de 2024 reveló que, cuatro meses antes de firmar el acuerdo Nimbus, empleados de la empresa ya habían alertado internamente de que el contrato podría perjudicar la reputación de Google y que los servicios de Google Cloud podrían ser usados o vinculados a la facilitación de violaciones de derechos humanos.
Para complicar aún más las cosas, a principios de 2025 Google habría revisado sus Principios de IA y eliminado el lenguaje que prohibía explícitamente la construcción de armas y de tecnología de vigilancia. Este cambio silencioso reforzó las desconfianzas internas y externas sobre la verdadera disposición de la empresa a mantener límites éticos en el uso de su tecnología.
La presión del grupo No Tech For Apartheid y la cuestión de los contratos de nube
El viernes, el colectivo No Tech For Apartheid, conocido por criticar contratos de computación en la nube entre el gobierno de Estados Unidos y las grandes empresas tecnológicas, publicó una declaración conjunta con un título contundente: Amazon, Google y Microsoft deben rechazar las demandas del Pentágono.
La coalición pidió que las tres líderes en infraestructura de nube se nieguen a aceptar términos del Departamento de Defensa que posibiliten vigilancia masiva u otros usos abusivos de inteligencia artificial. El grupo también reivindicó mayor transparencia en los contratos que involucran al Pentágono, al Departamento de Seguridad Nacional y al Servicio de Inmigración y Control de Aduanas, el ICE.
No Tech For Apartheid apuntó directamente a Google, citando la posibilidad de un acuerdo con el Pentágono que podría replicar un contrato que ya permite al Departamento de Defensa utilizar Grok, de la xAI de Elon Musk, en entornos clasificados — hasta donde se sabe, sin ninguna salvaguarda. La declaración alertó de que las empresas están al borde de aceptar términos contractuales similares y que Google está negociando para implantar Gemini en usos clasificados del Pentágono.
Mientras Anthropic y OpenAI hicieron declaraciones públicas sobre sus negociaciones con el Departamento de Defensa y el estado actual de sus contratos, Alphabet, la matriz de Google, se mantuvo en silencio y no respondió a múltiples solicitudes de comentarios.
El contexto más amplio: inmigración, uso de IA y tensiones en el sector
La tensión entre el sector tecnológico y el gobierno estadounidense no surgió de la nada. En los meses previos a la crisis que involucró a Anthropic, las relaciones ya venían deteriorándose por otros motivos. La creciente agresividad de agentes federales de inmigración, incluyendo la muerte de dos ciudadanos estadounidenses en Minnesota a principios de año, intensificó las exigencias de los trabajadores tecnológicos por más transparencia sobre lo que sus empresas hacen para el gobierno. Profesionales del sector comenzaron a cuestionar abiertamente los contratos de computación en la nube y de inteligencia artificial firmados con agencias gubernamentales, creando un clima de desconfianza que ya estaba en efervescencia antes incluso de la clasificación de Anthropic como riesgo de seguridad.
Este escenario deja claro que la cuestión va mucho más allá de una empresa individual o de un contrato específico. Lo que está en juego es la propia relación entre las compañías que construyen las tecnologías más avanzadas del mundo y los gobiernos que quieren utilizarlas para proyectar poder militar y controlar fronteras. Con cada semana que pasa, nuevas revelaciones y nuevos episodios hacen esta relación más compleja y más cargada de consecuencias.
Por qué este debate importa para el futuro de la inteligencia artificial
Esta historia va mucho más allá de una disputa entre una startup de IA y el Departamento de Defensa. Reaviva preguntas fundamentales sobre quién controla las tecnologías más poderosas de nuestro tiempo y cuáles deben ser los límites de su aplicación. La inteligencia artificial generativa avanzó a un punto en el que sus modelos pueden adaptarse para finalidades que van desde la atención al cliente hasta la identificación de objetivos en escenarios de combate. La línea entre uso civil y uso militar quedó tan delgada que las decisiones tomadas ahora por las empresas que lideran este mercado van a definir el estándar para las próximas décadas.
Existe también una dimensión económica que no se puede ignorar. El sector de defensa de Estados Unidos mueve cientos de miles de millones de dólares al año, y los contratos con empresas tecnológicas representan una porción cada vez mayor de esa inversión. Rechazar ese dinero no es una decisión trivial, especialmente para empresas que dependen de rondas de inversión y necesitan demostrar crecimiento constante. Anthropic, al renunciar a ese camino, asumió un riesgo financiero real. Y es justamente por eso que el apoyo que recibió de profesionales de otras empresas tiene tanto significado — demuestra que existe una porción significativa de la industria que valora los principios éticos por encima de los contratos lucrativos.
El escenario que se dibuja ahora es de una tensión creciente entre gobiernos que quieren acceso irrestricto a las capacidades más avanzadas de inteligencia artificial y empresas que intentan mantener algún control sobre cómo se usan sus tecnologías. Esta no es una cuestión exclusiva de Estados Unidos. Gobiernos de todo el mundo están atentos a esta disputa, porque el resultado va a influir en cómo se construirá la regulación de IA a nivel global. Si el Pentágono consigue establecer que rechazar demandas militares genera penalizaciones en la cadena de suministros, otras naciones podrían adoptar estrategias similares, creando un efecto dominó que reduciría drásticamente la autonomía de las empresas tecnológicas.
Qué esperar de los próximos capítulos
La movilización en torno al caso de Anthropic aún está en marcha y el número de firmantes de las cartas abiertas sigue creciendo. Históricamente, este tipo de presión interna de los empleados ha producido resultados concretos en el sector tecnológico. El caso del Project Maven, la revisión de los Principios de IA de Google y los cambios en políticas de uso de datos en otras empresas son ejemplos de situaciones en las que la voz de los trabajadores forzó cambios reales. El apoyo colectivo a una postura ética puede ser más poderoso que cualquier lobby corporativo, especialmente cuando alcanza masa crítica.
Por otro lado, el gobierno estadounidense difícilmente va a retroceder sin dar una respuesta. Ya existen discusiones en el Congreso de Estados Unidos sobre la posibilidad de crear legislación que obligue a las empresas de inteligencia artificial a cooperar con demandas de seguridad nacional en determinadas circunstancias. Si algo así se aprueba, la decisión dejaría de estar en manos de las empresas y pasaría a ser una cuestión legal. Anthropic y otras empresas que comparten esta visión tendrían que encontrar nuevos caminos para defender sus principios dentro de un marco regulatorio potencialmente desfavorable.
Lo que queda claro es que estamos viviendo un momento decisivo para la relación entre inteligencia artificial y poder militar. Las decisiones tomadas ahora — tanto por las empresas como por los gobiernos y los profesionales que construyen estas tecnologías — van a moldear el futuro de esta industria de maneras que todavía no podemos prever del todo. Y el mensaje que casi 900 trabajadores de tecnología enviaron al firmar esas cartas es difícil de ignorar: la comunidad que construye estas herramientas quiere tener voz sobre cómo se usan 🔥
