Para compartir:

Cómo la Inteligencia Artificial Está Cambiando las Operaciones Militares

La Inteligencia Artificial dejó de ser solo un concepto de ciencia ficción y se convirtió en una pieza central de las operaciones de combate modernas. En los últimos meses, las fuerzas armadas de Estados Unidos dieron un paso significativo al incorporar sistemas de IA en la planificación de ataques aéreos dirigidos contra Irán, y los detalles que están saliendo a la luz ponen en evidencia un debate urgente sobre los límites de esta tecnología cuando hay vidas humanas en juego. Dos fuentes con conocimiento del asunto, que pidieron anonimato por tratarse de información sensible, confirmaron que los militares están utilizando sistemas de IA de la empresa de análisis de datos Palantir para identificar posibles objetivos en los ataques en curso. Lo que antes se discutía solo en laboratorios de investigación y conferencias de tecnología ahora es una realidad operativa en zonas de conflicto, con decisiones procesándose a velocidades que ningún analista humano podría alcanzar por sí solo.

Esta transición marca un punto de inflexión en la forma en que se conducen las guerras y, al mismo tiempo, abre una serie de cuestionamientos éticos y estratégicos que gobiernos y sociedad civil necesitan afrontar con seriedad. La adopción ocurre en un momento en que el secretario de Defensa Pete Hegseth tiene como objetivo colocar la Inteligencia Artificial en el corazón de las operaciones de combate estadounidenses, según lo delineado en la estrategia oficial de IA del Departamento de Defensa. Al mismo tiempo, Hegseth ha entrado en conflicto con la dirección de Anthropic por las limitaciones impuestas al uso de sus modelos de IA, lo que añade una capa de tensión política a toda esta ecuación tecnológica.

El Papel de Palantir y la Plataforma Maven

En el epicentro de esta transformación está Palantir, una empresa de análisis de datos con raíces profundas en el sector de defensa e inteligencia. La compañía integró el modelo de lenguaje Claude, desarrollado por Anthropic, en su plataforma militar llamada Maven. Esta combinación permite que volúmenes masivos de datos de inteligencia se procesen en cuestión de segundos, ofreciendo a los analistas militares una capacidad de clasificación e detección de posibles objetivos que sería humanamente imposible de replicar en el mismo intervalo de tiempo. El sistema cruza información de satélites, interceptaciones de comunicaciones, datos geoespaciales e reportes de campo para generar recomendaciones que, en teoría, hacen las operaciones más precisas y reducen el riesgo de daños colaterales.

De acuerdo con una fuente con conocimiento del trabajo de Anthropic junto al Departamento de Defensa, Claude se utiliza para ayudar a los analistas militares a filtrar grandes volúmenes de inteligencia y no proporciona directamente recomendaciones de objetivos. Esta distinción es importante porque define, al menos oficialmente, el papel de la IA como herramienta de apoyo y no como tomadora de decisiones autónoma. La misma plataforma Maven, por cierto, también fue utilizada en la operación de captura del presidente venezolano Nicolás Maduro, lo que demuestra la amplitud de aplicaciones que el sistema ya ha alcanzado.

Palantir no es una novata cuando se trata de trabajar con gobiernos y agencias de inteligencia. La empresa fue cofundada por Peter Thiel y mantiene contratos multimillonarios con el Departamento de Defensa de Estados Unidos. La plataforma Maven fue creada para funcionar como una especie de sistema nervioso central para operaciones de inteligencia, reuniendo datos fragmentados de múltiples fuentes y presentándolos de forma organizada y accionable para los tomadores de decisiones. Con la integración de Claude, la plataforma ganó una capa de procesamiento de lenguaje natural que permite a los analistas hacer preguntas complejas al sistema y recibir respuestas contextualizadas en tiempo real. En la práctica, un operador puede solicitar que el sistema identifique patrones de movimiento en una región específica y recibir en segundos un análisis que antes requería equipos enteros trabajando durante horas.

Anthropic declinó hacer comentarios sobre el asunto. Palantir tampoco respondió a las solicitudes de comentario.

Velocidad Versus Precisión: El Dilema Central

La eficiencia proporcionada por la Inteligencia Artificial en este contexto es innegable. Antes de la adopción de estas herramientas, el ciclo de planificación de un ataque aéreo podía llevar horas o incluso días, dependiendo de la complejidad de la operación y del volumen de datos disponibles. Con la IA integrada al flujo de trabajo, ese tiempo se redujo drásticamente. En un video publicado en la plataforma X, el Almirante Brad Cooper, líder del Comando Central de EE.UU., reconoció que la IA se ha convertido en una herramienta fundamental para ayudar a Estados Unidos a elegir objetivos en Irán.

Reciba el mejor contenido sobre innovación en su correo electrónico.

Todas las noticias, consejos, tendencias y recursos que buscas, directamente en tu bandeja de entrada.

Al suscribirte al boletín informativo, aceptas recibir comunicaciones de Método Viral. Nos comprometemos a proteger y respetar siempre tu privacidad.

Nuestros combatientes están aprovechando una variedad de herramientas avanzadas de IA. Estos sistemas nos ayudan a filtrar grandes cantidades de datos en segundos para que nuestros líderes puedan eliminar el ruido y tomar decisiones más inteligentes más rápido de lo que el enemigo puede reaccionar, afirmó Cooper. Añadió que los humanos siempre tomarán las decisiones finales sobre qué atacar y qué no atacar y cuándo atacar, pero las herramientas avanzadas de IA pueden transformar procesos que solían llevar horas y a veces hasta días en segundos.

Sin embargo, velocidad sin precisión es un riesgo enorme, y es exactamente en ese punto donde el debate sobre la supervisión cobra fuerza. El diputado Pat Harrigan, republicano de Carolina del Norte y miembro del Comité de Servicios Armados de la Cámara, destacó que la Operación Epic Fury resultó en más de 2.000 objetivos alcanzados con precisión notable, lo que él considera un testimonio de cómo estas capacidades pueden usarse de forma responsable y eficaz. Aun así, Harrigan enfatizó que ningún sistema de IA sustituye el juicio, el entrenamiento y la experiencia del combatiente estadounidense, y que el ser humano en el circuito de decisión no es una formalidad, sino un requisito.

El Conflicto Entre Anthropic y el Pentágono

Lo que hace esta situación particularmente compleja es el enfrentamiento entre Anthropic y el Departamento de Defensa. La empresa, creadora del modelo Claude, se posiciona públicamente como defensora del desarrollo seguro y responsable de Inteligencia Artificial. La compañía intentó impedir que los militares usaran su IA para vigilancia doméstica y armas autónomas letales, lo que provocó una reacción dura por parte del gobierno.

La semana anterior a la publicación del reportaje original, el Departamento de Defensa clasificó a Anthropic como una amenaza a la seguridad nacional, una designación que podría resultar en la eliminación de sus sistemas del uso militar en los próximos meses. En respuesta, Anthropic presentó una demanda judicial para impugnar esa clasificación. El caso ilustra la tensión creciente entre empresas tecnológicas que intentan establecer límites éticos para sus productos y gobiernos que ven esos límites como obstáculos a la eficiencia operativa.

El propio CEO de Anthropic, Dario Amodei, admitió en una entrevista con NBC que no puede garantizar con el 100% de certeza que los sistemas construidos por su empresa sean perfectamente confiables. Esta declaración, viniendo del líder de una de las empresas más influyentes del sector de IA, resuena con un peso especial cuando se aplica al contexto militar. Un extenso estudio de OpenAI publicado en septiembre constató que todos los principales chatbots de IA, basados en modelos de lenguaje, sufren de un fenómeno conocido como alucinación, es decir, periódicamente fabrican respuestas que parecen plausibles pero son factualmente incorrectas. Cuando ese margen de error se coloca en el contexto de operaciones de combate, la gravedad de la situación se vuelve evidente.

La Presión por Supervisión y Transparencia en el Congreso

En el Congreso estadounidense, parlamentarios de ambos partidos se están movilizando para exigir más supervisión sobre el papel de la Inteligencia Artificial en operaciones militares. La preocupación bipartidista es una señal clara de que el tema trasciende las divisiones políticas tradicionales y toca cuestiones fundamentales sobre gobernanza tecnológica, derechos humanos y seguridad nacional.

La diputada Jill Tokuda, demócrata de Hawái y miembro del Comité de Servicios Armados de la Cámara, fue enfática al afirmar que es necesaria una revisión completa e imparcial para determinar si la IA ya ha perjudicado o puesto vidas en riesgo en la guerra con Irán. Según ella, el juicio humano debe permanecer en el centro de las decisiones de vida o muerte.

La diputada Sara Jacobs, demócrata de California y también miembro del mismo comité, planteó un punto técnico relevante: las herramientas de IA no son 100% confiables — pueden fallar de maneras sutiles y aun así los operadores siguen confiando demasiado en ellas. Jacobs defendió la aplicación de salvaguardas rigurosas y la garantía de que un ser humano esté involucrado en cada decisión de uso de fuerza letal, porque el costo de equivocarse puede ser devastador para los civiles y para los propios militares que ejecutan estas misiones.

En el Senado, la senadora Elissa Slotkin, demócrata de Michigan y miembro del Comité de Servicios Armados del Senado, declaró que el Departamento de Defensa no ha hecho lo suficiente para esclarecer cómo los humanos están verificando la inteligencia militar asistida o generada por IA. El senador Mark Warner, demócrata de Virginia y principal demócrata en el Comité de Inteligencia del Senado, afirmó que está preocupado por el uso militar de la IA para asistir en la identificación de objetivos y que existen preguntas sin respuesta sobre cómo se está utilizando la nueva tecnología.

La senadora Kirsten Gillibrand, demócrata de Nueva York, fue aún más directa al pedir reglas más claras sobre cómo los militares pueden usar la IA, afirmando que hay poca razón para confiar en que el Departamento de Defensa será responsable en su uso de IA sin salvaguardas explícitas.

La Caja Negra Algorítmica en Contextos de Vida o Muerte

Uno de los puntos más delicados de este debate es la cuestión de la transparencia algorítmica. Modelos de lenguaje como Claude son sistemas complejos que funcionan como lo que los especialistas llaman caja negra, es decir, es difícil explicar con precisión por qué el modelo llegó a una determinada conclusión o recomendación. En aplicaciones comerciales, esta opacidad ya es un problema. En contextos de uso militar, se vuelve potencialmente catastrófica.

Si un sistema de IA recomienda que determinada ubicación sea tratada como un objetivo y esa recomendación resulta ser errónea, es necesario que exista un camino claro para entender qué salió mal, por qué salió mal y cómo evitar que el mismo tipo de fallo se repita. Sin esa transparencia, la supervisión se convierte simplemente en un ejercicio burocrático sin efectividad real. Los principales investigadores de IA del mundo admiten que no comprenden totalmente cómo funcionan los sistemas de IA más avanzados, lo que añade una capa de incertidumbre a todo el escenario.

El portavoz jefe del Pentágono, Sean Parnell, publicó en la plataforma X que los militares no quieren usar IA para desarrollar armas autónomas que operen sin participación humana. Sin embargo, el Departamento de Defensa no respondió a las preguntas sobre cómo equilibra el uso de IA para reducir las cargas de trabajo humanas mientras verifica si los análisis y sugerencias de objetivos son precisos. Esta falta de respuesta alimenta las preocupaciones de quienes siguen el tema de cerca.

La Perspectiva de los Especialistas en Seguridad y Ética

Mark Beall, jefe de asuntos gubernamentales en AI Policy Network y exdirector de estrategia y política de IA en el Pentágono de 2018 a 2020, ofreció una perspectiva equilibrada. Según él, aunque la IA puede agilizar el proceso de decidir dónde atacar, está claro que los humanos todavía necesitan verificar minuciosamente los objetivos. Beall reconoció que los sistemas de IA se están desplegando de forma eficaz para acelerar flujos de trabajo existentes y permitir que comandantes, analistas y planificadores tomen decisiones mejores y más rápidas. Sin embargo, cuando se trata de accionar efectivamente sistemas de armas, considera que la tecnología aún no está lista.

Herramientas que usamos a diario

Beall también alertó sobre un escenario futuro preocupante: a medida que estos sistemas se vuelvan extremadamente eficientes y los adversarios comiencen a utilizarlos, habrá una presión creciente para acortar la revisión de los análisis de IA con el fin de operar a velocidades útiles y eficaces. Para él, es fundamental resolver el problema de confiabilidad antes de llegar a ese punto, porque hacer que las armas autónomas letales sean seguras y eficaces es de interés para el mundo entero.

Heidy Khlaaf, científica jefa del AI Now Institute, una organización sin fines de lucro que aboga por el uso ético de la tecnología, expresó su preocupación de que la dependencia de la IA para procesar información rápidamente en decisiones de vida o muerte pueda funcionar como una forma de que los militares eviten la rendición de cuentas por errores. Según Khlaaf, es muy peligroso que la velocidad se esté vendiendo como algo estratégico, cuando en realidad es una cobertura para ataques indiscriminados, considerando lo imprecisos que son estos modelos.

Lo Que Está en Juego Para el Futuro

La administración Trump abrazó públicamente el uso de la tecnología tanto para los militares como para todo el gobierno, lo que indica que la tendencia de expansión de la IA en operaciones de defensa debe continuar y probablemente se intensifique en los próximos meses y años. Ninguno de los parlamentarios consultados por NBC News sugirió que la IA debería eliminarse completamente del uso militar, pero existe un consenso creciente de que se necesita más supervisión.

Además de la preocupación legislativa, organizaciones de derechos humanos y especialistas en ética de Inteligencia Artificial están siguiendo de cerca estos desarrollos. La posibilidad de que errores algorítmicos resulten en muertes de civiles es algo que no puede tratarse como un efecto colateral aceptable de la modernización militar. El dilema central permanece: la IA puede efectivamente hacer las operaciones militares más rápidas y, en muchos casos, más precisas, pero esa eficiencia no puede venir al costo de una delegación irresponsable de decisiones que conllevan consecuencias irreversibles.

El modelo human-in-the-loop, es decir, la garantía de que un ser humano esté siempre en el circuito de decisión, es defendido por prácticamente todos los actores involucrados en esta discusión. La cuestión real no es si ese principio existe en el papel, sino si se respeta en la práctica cuando la presión operativa exige respuestas en segundos. Cuando la máquina entrega un análisis casi instantáneamente y existe una ventana corta de oportunidad, la tentación de confiar ciegamente en la tecnología es real y peligrosa.

El camino que parece más sensato implica invertir en mecanismos robustos de auditoría, garantizar que los operadores humanos tengan tiempo y autonomía para cuestionar las recomendaciones de la máquina y, sobre todo, crear regulaciones que acompañen el ritmo acelerado de la evolución tecnológica en el campo de batalla. Lo que está en juego aquí no es solo una cuestión de estrategia militar, sino de responsabilidad colectiva sobre cómo la humanidad elige utilizar las herramientas más poderosas que ha creado. Y con el avance constante de los modelos de lenguaje y las capacidades de procesamiento de datos, este debate solo tiende a volverse más urgente. 🧠

Imagen de Rafael

Rafael

Operaciones

Transformo los procesos internos en máquinas de entrega, garantizando que cada cliente de Viral Method reciba un servicio de primera calidad y resultados reales.

Rellena el formulario y nuestro equipo se pondrá en contacto contigo en un plazo de 24 horas.

Publicaciones relacionadas

Performance e Crescimento: Nvidia, Agentes de IA e Centros de Datos

Nvidia acelera ingresos con centros de datos, GB300 NVL72 y Rubin; eficiencia y demanda por AI Agents impulsan crecimiento y

IA y Derechos de Autor: La Corte Suprema Niega el Copyright para Creaciones Artísticas

La Corte Suprema rechazó el caso sobre obras generadas por IA; en EE.UU. solo los humanos tienen autoría reconocida —

IA revela la identidad de anónimos en las redes sociales

Anonimato vulnerable: cómo la IA moderna desenmascara perfiles en redes sociales y por qué esto amenaza tu privacidad online.

Reciba el mejor contenido sobre innovación en su correo electrónico.

Todas las noticias, consejos, tendencias y recursos que buscas, directamente en tu bandeja de entrada.

Al suscribirte al boletín informativo, aceptas recibir comunicaciones de Método Viral. Nos comprometemos a proteger y respetar siempre tu privacidad.

Rafael

Online

Atendimento

Calculadora Preço de Sites

Descubra quanto custa o site ideal para seu negócio

Páginas do Site

Quantas páginas você precisa?

4

Arraste para selecionar de 1 a 20 páginas

📄

⚡ Em apenas 2 minutos, descubra automaticamente quanto custa um site em 2026 sob medida para o seu negócio

👥 Mais de 0+ empresas já calcularam seu orçamento

Fale com um consultor

Preencha o formulário e nossa equipe entrará em contato.