Investigadora de alto rango abandona OpenAI por el acuerdo con el Pentágono
La salida de una de las principales investigadoras de OpenAI reavivó el debate sobre los límites éticos de la inteligencia artificial cuando se aplica al sector militar. La profesional, identificada como Kalinowski, dejó la empresa tras el anuncio de un contrato con el Pentágono que, según ella, se cerró de forma apresurada y sin las salvaguardas necesarias para garantizar el uso responsable de la tecnología. El caso fue reportado por Politico y rápidamente se convirtió en uno de los temas más comentados en la comunidad tecnológica, planteando cuestiones sobre gobernanza, transparencia y el papel que las empresas de IA deben desempeñar en operaciones de seguridad nacional.
La historia no ocurre de forma aislada. Se conecta con un tablero geopolítico complejo, que involucra la rivalidad entre startups de IA, decisiones del gobierno Trump e incluso una operación militar contra Irán. Vamos a entender todo lo que hay detrás de esta polémica.
Qué motivó la salida de Kalinowski de OpenAI
El detonante de la renuncia fue el anuncio del acuerdo entre OpenAI y el Pentágono, que contempla el uso de modelos de inteligencia artificial en operaciones vinculadas a la defensa de Estados Unidos. En la práctica, esto significa que herramientas como ChatGPT y otros sistemas desarrollados por la empresa podrán integrarse en flujos de trabajo militares, incluyendo análisis de datos, procesamiento de información a gran escala y apoyo a decisiones estratégicas.
Sam Altman, CEO de OpenAI, afirmó públicamente que el contrato incluye protecciones contra el uso de la tecnología para vigilancia masiva y contra el uso de IA en decisiones autónomas de fuerza. Sin embargo, Kalinowski cuestionó esa versión. En una publicación en X (antes Twitter), afirmó que el anuncio se apresuró sin que las salvaguardas estuvieran debidamente definidas.
Para ella, la cuestión central es de gobernanza. En sus palabras, temas de esta magnitud son demasiado importantes como para que acuerdos o anuncios se hagan de forma apresurada. La investigadora no cuestionó si OpenAI debería o no trabajar con el gobierno — lo que cuestionó fue la manera en que se condujo todo, sin el rigor que la situación exigía.
OpenAI confirmó la salida de Kalinowski en un comunicado oficial. La empresa reforzó que cree que su acuerdo con el Pentágono crea un camino viable para el uso responsable de IA en contextos de seguridad nacional, al mismo tiempo que mantiene sus líneas rojas claras: ninguna vigilancia doméstica y ningún arma autónoma. La compañía también dijo reconocer que las personas tienen opiniones firmes sobre estos asuntos y que continuará dialogando con empleados, gobiernos, sociedad civil y comunidades alrededor del mundo.
El contexto político que hizo todo más explosivo
Para entender la gravedad de esta situación, hay que mirar el escenario político que la rodea. La relación entre el gobierno Trump y las empresas de inteligencia artificial venía volviéndose cada vez más tensa, especialmente en lo que respecta a Anthropic, una de las principales competidoras de OpenAI.
A finales de febrero, el presidente Donald Trump ordenó que todas las agencias federales de Estados Unidos dejaran de utilizar tecnología de Anthropic. La decisión llegó después de un punto muerto que no logró resolverse entre las partes. Pero las cosas escalaron aún más en la primera semana de marzo, cuando el Pentágono designó a Anthropic como un riesgo en la cadena de suministro — una clasificación que normalmente se reserva para entidades con vínculos a adversarios extranjeros.
Esta medida fue vista por muchos analistas como desproporcionada y políticamente motivada. Clasificar a una empresa estadounidense de tecnología con la misma etiqueta que se usa para organizaciones vinculadas a gobiernos hostiles es, como mínimo, inusual. La lectura que muchos hicieron fue directa: el gobierno estaba eligiendo a sus socios de IA basándose en alineación política, y no en criterios técnicos o de seguridad.
Y fue exactamente en ese vacío dejado por Anthropic donde OpenAI se posicionó. El contrato con el Pentágono colocó a la empresa de Sam Altman como la principal proveedora de inteligencia artificial para el aparato militar estadounidense, en un momento en que la competencia estaba siendo activamente excluida por el propio gobierno.
La contradicción con la operación militar contra Irán
Si el escenario ya era complicado, un evento ocurrido poco después hizo todo aún más contradictorio. Apenas un día después de cortar oficialmente los lazos con Anthropic, la Casa Blanca lanzó una operación militar contra Irán en conjunto con Israel.
Y aquí está la parte que llamó la atención de todo el mundo: según un reportaje del Wall Street Journal, Estados Unidos continuó usando herramientas de IA de Anthropic durante los ataques a Irán, incluso después de la prohibición oficial determinada por Trump. La contradicción es flagrante — el gobierno prohíbe a una empresa, la clasifica como riesgo para la cadena de suministro del Pentágono y, al día siguiente, usa la tecnología de esa misma empresa en una campaña militar activa.
Aunque no existe registro público de que la IA haya sido usada en algún ataque durante el conflicto sin supervisión humana, las preguntas sobre el papel que las empresas tecnológicas desempeñan en tiempos de guerra alcanzaron un punto de ebullición. ¿Quién decide las reglas? ¿Quién supervisa el uso? Y, quizás lo más importante, ¿quién rinde cuentas cuando algo sale mal?
Por qué la renuncia de Kalinowski importa tanto
La salida de una investigadora de alto rango puede parecer, a primera vista, solo un movimiento más del mercado. Pero en el contexto actual de OpenAI, representa algo mucho mayor. En los últimos meses, la empresa viene perdiendo profesionales sénior que discrepan de la dirección que el liderazgo está tomando. Estas personas no son simples empleados — son justamente los profesionales que actúan como freno de seguridad dentro de las organizaciones tecnológicas.
Cuando especialistas en ética, seguridad y gobernanza de IA deciden que ya no pueden conciliar sus principios con las decisiones de la empresa, eso es una señal de alerta que no se puede ignorar. Y el patrón de salidas en OpenAI ya se ha vuelto difícil de tratar como coincidencia.
Relatos de otros empleados, muchos de ellos compartidos de forma anónima, indican que la incomodidad con el acercamiento militar es compartida por una parte significativa del equipo. Sin embargo, no todos tienen la estabilidad financiera o la disposición profesional para abandonar sus cargos en señal de protesta. El miedo a represalias y la cultura de confidencialidad que rodea a los contratos de seguridad nacional crean un ambiente donde la disidencia interna puede ser silenciada antes de ganar tracción.
La zona gris que preocupa a los especialistas
Uno de los puntos más sensibles de todo este debate es la falta de claridad sobre los límites reales de uso de las herramientas de IA en contextos militares. OpenAI afirmó que sus líneas rojas son claras — sin vigilancia doméstica y sin armas autónomas. Pero la distancia entre una declaración pública y la implementación práctica de esas restricciones puede ser enorme.
No quedó explícito, por ejemplo, cómo se auditarán esas restricciones. ¿Quién va a verificar si los modelos no están siendo usados para fines que exceden el alcance del contrato? ¿Existe algún mecanismo independiente de fiscalización? ¿Y qué ocurre si se identifica una violación — OpenAI puede simplemente terminar el contrato, o existen cláusulas que se lo impiden?
Estas preguntas no son teóricas. En contextos de seguridad nacional, la tendencia histórica es que la transparencia disminuya a medida que la sensibilidad de las operaciones aumenta. Y cuando la tecnología involucrada es capaz de procesar cantidades masivas de datos y generar análisis en tiempo real, el potencial de uso indebido crece proporcionalmente.
Cabe recordar que este tipo de alianzas entre Big Techs y el sector militar no es exactamente una novedad. Google enfrentó una crisis interna en 2018 con el Proyecto Maven, que también involucraba al Pentágono. Microsoft posee contratos multimillonarios con el Departamento de Defensa estadounidense. La diferencia aquí es el peso simbólico de OpenAI — una empresa que nació como organización sin fines de lucro, con la misión declarada de desarrollar IA segura para toda la humanidad. El contraste entre la promesa original y la realidad actual es difícil de ignorar.
El efecto cascada en la industria tecnológica
Otro factor que merece atención es el precedente que este tipo de alianzas puede crear para la industria en su conjunto. Cuando una empresa del tamaño de OpenAI normaliza contratos militares sin la transparencia adecuada, abre el camino para que otras sigan en la misma dirección con aún menos escrutinio.
Startups más pequeñas, que muchas veces no cuentan con equipos dedicados a ética o políticas de uso responsable tan robustas, pueden sentirse animadas a buscar contratos similares sin ningún tipo de salvaguarda. El resultado es un ecosistema donde la inteligencia artificial aplicada a la seguridad nacional y a la vigilancia avanza a un ritmo acelerado, mientras los mecanismos de control y rendición de cuentas se quedan cada vez más rezagados.
Desde el punto de vista comercial, el contrato con el Pentágono le garantiza a OpenAI una fuente de ingresos sustancial y la posiciona como socia estratégica del gobierno estadounidense en un momento de carrera global por la supremacía en IA. Por otro lado, la asociación directa con operaciones militares puede comprometer la reputación de la marca ante el público general, la comunidad académica e incluso gobiernos extranjeros que utilizan sus productos.
Países de la Unión Europea, por ejemplo, ya están debatiendo regulaciones más estrictas sobre el uso de IA en contextos militares y podrían ver con malos ojos la adopción de herramientas que estén directamente vinculadas al aparato de defensa estadounidense. Esto puede generar impactos reales en la expansión internacional de la empresa.
Qué dice este episodio sobre el futuro de la IA
Más que una polémica corporativa, la salida de Kalinowski de OpenAI funciona como un espejo del momento que la industria de inteligencia artificial está viviendo. La tecnología está avanzando a una velocidad que los mecanismos de gobernanza simplemente no logran seguir. Y cuando las decisiones sobre cómo y dónde se usará esa tecnología se toman bajo presión política y comercial, los riesgos se multiplican.
La propia Kalinowski resumió bien la situación al decir que se trata, ante todo, de una cuestión de gobernanza. No es estar en contra o a favor del uso de IA por parte del gobierno — es garantizar que ese uso ocurra dentro de un marco que priorice la responsabilidad y la transparencia. Y cuando ese marco no existe o se ignora, las consecuencias pueden ser irreversibles.
Las discusiones sobre el papel de las empresas de IA en tiempos de guerra, como bien señaló Politico, alcanzaron un punto de ebullición. Y la respuesta a estas cuestiones no vendrá solo de las propias empresas o de los gobiernos — dependerá también de la presión de la sociedad civil, de la comunidad técnica y de mecanismos regulatorios que aún están en construcción. Lo que ocurrió con Kalinowski y OpenAI es solo el capítulo más reciente de una historia que todavía está muy lejos de terminar. 🧠
