Para compartir:

Militar de Estados Unidos usó Claude en los ataques contra Irán incluso después del veto de Trump

El ejército de Estados Unidos utilizó Claude, el modelo de inteligencia artificial de Anthropic, durante los ataques masivos contra Irán realizados en conjunto con Israel, incluso después de que Donald Trump ordenara, pocas horas antes, la ruptura total de vínculos con la empresa. La información fue publicada por Wall Street Journal y Axios, y pone sobre la mesa un dilema que va mucho más allá de la política o la tecnología: qué ocurre cuando una IA ya está tan entrelazada en las operaciones militares que ni una orden presidencial logra sacarla de escena de un momento a otro.

Este episodio no es un caso aislado. Es la continuación de una crisis que comenzó semanas antes y que involucra disputas ideológicas, contratos multimillonarios y una pregunta que todavía no tiene una respuesta sencilla: hasta qué punto los gobiernos pueden depender de empresas privadas para llevar adelante operaciones de guerra.

Cómo se usó Claude en las operaciones militares contra Irán

La relación entre Claude y el Pentágono no empezó de un día para otro. El modelo de inteligencia artificial de Anthropic ya venía incorporándose a varios sistemas de defensa de Estados Unidos desde hacía meses, con contratos firmados y equipos entrenados para operar la herramienta en escenarios de alta complejidad. Según los reportes, el mando militar estadounidense utilizó Claude con fines de inteligencia, además de ayudar en la selección de objetivos y en la realización de simulaciones de campo de batalla.

En la práctica, Claude funcionaba como un asistente avanzado para el análisis de datos. Militares y analistas del Pentágono alimentaban el sistema con información sobre movimiento de tropas, interceptaciones de comunicaciones e imágenes satelitales, y la inteligencia artificial ayudaba a cruzar todo eso a una velocidad imposible para equipos humanos trabajando por su cuenta. La IA procesaba información de múltiples fuentes en tiempo real, ayudando a los analistas a identificar patrones y tomar decisiones más rápidas durante la operación conjunta con Israel.

Es importante destacar que no se trataba de una IA tomando decisiones autónomas sobre objetivos o disparos. Claude aceleraba de forma drástica el ciclo de análisis y planificación, pero las decisiones finales seguían siendo humanas. Aun así, el nivel de integración era lo bastante profundo como para que desconectar la herramienta de los sistemas en medio de una operación activa representara un riesgo operativo real y potencialmente peligroso.

Cuando comenzaron los bombardeos sobre Irán el sábado, los equipos del Pentágono ya estaban usando Claude como parte central del flujo de trabajo. La inteligencia artificial estaba integrada en procesos que iban desde la preparación de las misiones hasta el monitoreo en tiempo real. Cambiar de herramienta o simplemente apagar el sistema en ese momento sería como pedirle a un cirujano que cambie de instrumento en medio de un procedimiento crítico: técnicamente posible, pero extremadamente riesgoso.

Reciba el mejor contenido sobre innovación en su correo electrónico.

Todas las noticias, consejos, tendencias y recursos que buscas, directamente en tu bandeja de entrada.

Al suscribirte al boletín informativo, aceptas recibir comunicaciones de Método Viral. Nos comprometemos a proteger y respetar siempre tu privacidad.

El veto de Trump y el origen del conflicto con Anthropic

El viernes, pocas horas antes del inicio de los ataques, Trump ordenó que todas las agencias federales dejaran de usar Claude de inmediato. En una publicación en Truth Social, el presidente estadounidense calificó a Anthropic como una empresa de IA de la izquierda radical, dirigida por personas que no tienen idea de cómo es el mundo real.

Pero qué provocó una ruptura tan abrupta. La disputa se originó por el uso de Claude durante la operación militar para capturar al presidente de Venezuela, Nicolás Maduro, en enero. Anthropic se opuso públicamente y señaló que sus términos de uso prohíben que Claude sea aplicado con fines violentos, para el desarrollo de armas o para vigilancia. Esa postura de la empresa cayó muy mal en la Casa Blanca y en el Pentágono.

Desde entonces, las relaciones entre Trump, el Pentágono y Anthropic se deterioraron de forma acelerada. El secretario de Defensa, Pete Hegseth, publicó un extenso texto en la plataforma X el viernes, en el que acusó a Anthropic de arrogancia y traición. Hegseth fue tajante al afirmar que los combatientes de Estados Unidos nunca serán rehenes de los caprichos ideológicos de las grandes empresas tecnológicas. El secretario exigió acceso total e irrestricto a todos los modelos de IA de Anthropic para cualquier finalidad legal.

Sin embargo, Hegseth también reconoció la dificultad de desconectar rápidamente los sistemas militares de la herramienta, dado lo ampliamente que ya se utilizaba. Declaró que Anthropic seguiría prestando sus servicios por un período máximo de seis meses, permitiendo una transición adecuada hacia lo que definió como un servicio mejor y más patriótico.

El conflicto entre la orden política y la realidad operativa

En la práctica, el Pentágono quedó en una situación extremadamente delicada. Por un lado, había una orden presidencial clara de interrumpir el uso de la inteligencia artificial de Anthropic. Por el otro, había una operación militar en curso contra Irán que dependía, en parte importante, de sistemas en los que Claude ya estaba integrado.

Fuentes citadas por los medios estadounidenses señalaron que altos oficiales optaron por mantener el uso de la herramienta durante la operación, al considerar que el riesgo de apagarla en medio del proceso era mayor que el de incumplir temporalmente la directiva de Trump. Esa decisión, por sí sola, abre un enorme debate sobre la cadena de mando y sobre qué ocurre cuando la tecnología se vuelve tan esencial que ni una orden presidencial puede retirarla de inmediato.

El episodio también deja al descubierto una fragilidad de la que pocos hablaban hasta ahora: la creciente dependencia del aparato militar estadounidense de herramientas de inteligencia artificial suministradas por empresas privadas. Cuando el gobierno contrata a una empresa como Anthropic e integra Claude profundamente en sus operaciones, crear una alternativa viable no es algo que se haga en horas o días. Hay contratos, entrenamientos, adaptaciones de sistemas y una curva de aprendizaje que hacen que la transición sea mucho más compleja que simplemente firmar un decreto.

La situación con Irán demostró, en la práctica y de forma bastante dramática, que la inteligencia artificial ya ocupa un papel estratégico en las fuerzas armadas que va más allá de lo que muchos imaginaban. Ya no estamos hablando de proyectos piloto o experimentos de laboratorio: estamos hablando de una tecnología que ya está en el centro de las operaciones de guerra.

OpenAI entra en escena para llenar el vacío

Con la ruptura entre Trump y Anthropic, la rival OpenAI se posicionó rápidamente para ocupar el espacio dejado por Claude. Sam Altman, CEO de OpenAI, anunció que alcanzó un acuerdo con el Pentágono para el uso de las herramientas de la empresa, incluido ChatGPT, en la red clasificada del Departamento de Defensa.

Este movimiento de OpenAI es significativo por varios motivos. Primero, porque la empresa históricamente mantenía políticas restrictivas sobre el uso militar de sus herramientas, pero ha ido flexibilizando esa posición en los últimos meses. Segundo, porque demuestra cómo el mercado de inteligencia artificial orientado a la defensa se ha convertido en una arena competitiva donde están en juego contratos multimillonarios. La salida de Anthropic, si efectivamente se concreta tras el período de transición de seis meses, representaría una redistribución masiva de recursos e influencia en el sector.

Además de OpenAI, otras empresas como Palantir, que ya mantiene una relación consolidada con el Pentágono, y startups centradas en aplicaciones militares de IA también están siguiendo de cerca esta oportunidad. El escenario geopolítico vuelve todo aún más urgente. Las tensiones con Irán no parecen que vayan a disminuir pronto, y la necesidad de herramientas avanzadas de inteligencia artificial para operaciones de defensa solo tiende a crecer.

Eso significa que cualquier empresa que quiera ocupar el lugar de Claude necesita no solo contar con una tecnología competitiva, sino también demostrar capacidad de integración rápida con la infraestructura militar existente. No alcanza con tener el mejor modelo de lenguaje del mercado: hace falta probar que funciona en condiciones de operación real y bajo presión.

El dilema ético de la inteligencia artificial en operaciones de guerra

La posición de Anthropic en esta historia merece atención. La empresa construyó su reputación justamente en torno a principios de seguridad y uso responsable de la IA. Los términos de uso de Claude prohíben explícitamente aplicaciones con fines violentos, desarrollo de armas y vigilancia. Cuando la empresa descubrió que su herramienta estaba siendo utilizada en la operación en Venezuela, se manifestó públicamente en contra, y eso desencadenó toda la crisis que llevó a la ruptura con el gobierno de Trump.

Herramientas que usamos a diario

Ese posicionamiento coloca a Anthropic en una situación complicada. Por un lado, la empresa está siendo coherente con sus propios principios y con el compromiso de desarrollar IA de forma responsable. Por otro, está renunciando a contratos enormes con el gobierno estadounidense y cediendo ese mercado a competidores que pueden no tener las mismas preocupaciones éticas.

La pregunta que queda es: quién define los límites del uso de inteligencia artificial en contextos militares. La empresa que desarrolla la tecnología. El gobierno que la contrata. O debería existir una regulación más amplia que establezca esas fronteras de manera clara. El caso de Claude en los ataques contra Irán muestra que ese vacío regulatorio ya está generando consecuencias reales y potencialmente peligrosas.

Qué significa esto para el futuro de la IA en operaciones militares

El caso de Claude en el Pentágono durante los ataques contra Irán será estudiado durante mucho tiempo como un ejemplo de lo que ocurre cuando las decisiones políticas y la realidad tecnológica entran en colisión. La inteligencia artificial dejó de ser una herramienta auxiliar y pasó a convertirse en un componente estructural de las operaciones militares modernas.

Algunos puntos quedan claros después de este episodio:

  • Desconectar una IA en medio de una guerra no es tan simple como apretar un botón. La integración de estas herramientas en los sistemas militares crea dependencias que tardan meses en deshacerse de forma segura.
  • La dependencia de empresas privadas para operaciones de defensa trae riesgos estratégicos. Cuando una empresa puede no estar de acuerdo con el uso que el gobierno hace de su tecnología y amenazar con retirarla, eso genera una vulnerabilidad que antes no existía.
  • El mercado de IA militar se está volviendo cada vez más disputado y politizado. La forma en que las empresas se posicionan frente al uso de sus herramientas con fines bélicos puede definir quién gana o pierde contratos multimillonarios.
  • La falta de una regulación clara sobre IA en contextos militares es una bomba de tiempo. Sin reglas bien definidas, decisiones de alto impacto terminan tomándose en caliente, con base en intereses políticos o comerciales.

Independientemente de quién ocupe el espacio de Anthropic en el Pentágono, una cosa quedó en evidencia: la relación entre inteligencia artificial y poder militar entró en una nueva fase, donde las fronteras entre tecnología, política y ética están cada vez más difusas. El episodio que involucra a Trump, Claude e Irán es apenas el comienzo de un debate que va a definir cómo se equilibran estas fuerzas en las próximas décadas, y que va a exigir respuestas mucho más sofisticadas que simplemente cancelar un contrato desde Truth Social. 🤖

Imagen de Rafael

Rafael

Operaciones

Transformo los procesos internos en máquinas de entrega, garantizando que cada cliente de Viral Method reciba un servicio de primera calidad y resultados reales.

Rellena el formulario y nuestro equipo se pondrá en contacto contigo en un plazo de 24 horas.

Publicaciones relacionadas

Performance e Crescimento: Nvidia, Agentes de IA e Centros de Datos

Nvidia acelera ingresos con centros de datos, GB300 NVL72 y Rubin; eficiencia y demanda por AI Agents impulsan crecimiento y

IA y Derechos de Autor: La Corte Suprema Niega el Copyright para Creaciones Artísticas

La Corte Suprema rechazó el caso sobre obras generadas por IA; en EE.UU. solo los humanos tienen autoría reconocida —

IA revela la identidad de anónimos en las redes sociales

Anonimato vulnerable: cómo la IA moderna desenmascara perfiles en redes sociales y por qué esto amenaza tu privacidad online.

Reciba el mejor contenido sobre innovación en su correo electrónico.

Todas las noticias, consejos, tendencias y recursos que buscas, directamente en tu bandeja de entrada.

Al suscribirte al boletín informativo, aceptas recibir comunicaciones de Método Viral. Nos comprometemos a proteger y respetar siempre tu privacidad.

Rafael

Online

Atendimento

Calculadora Preço de Sites

Descubra quanto custa o site ideal para seu negócio

Páginas do Site

Quantas páginas você precisa?

4

Arraste para selecionar de 1 a 20 páginas

📄

⚡ Em apenas 2 minutos, descubra automaticamente quanto custa um site em 2026 sob medida para o seu negócio

👥 Mais de 0+ empresas já calcularam seu orçamento

Fale com um consultor

Preencha o formulário e nossa equipe entrará em contato.