Se trata de Caitlin Kalinowski. El anuncio lo realizó mediante un posteo en sus redes sociales. Expresó preocupación por el posible uso de inteligencia artificial en tareas de vigilancia sin control judicial ni intervención humana
La directora de robótica y hardware de consumo de OpenAI, Caitlin Kalinowski, renunció a su puesto el 7 de marzo de 2026, tras expresarse en desacuerdo con los términos del reciente acuerdo entre la compañía y el Pentágono, según informaron Fortune y Reuters.
La decisión fue confirmada por la ingeniera a través de la red X y fue difundida por diversos medios internacionales. El acuerdo, firmado a finales de febrero, prevé el despliegue de modelos avanzados de inteligencia artificial en redes clasificadas del Departamento de Defensa de Estados Unidos, reavivando el debate sobre el uso de inteligencia artificial en la defensa nacional y los límites éticos en la industria tecnológica.
Kalinowski explicó que su salida se vincula con desacuerdos con la rapidez y el alcance de la negociación, y expuso su preocupación ante el posible uso de la inteligencia artificial en vigilancia interna sin control judicial y en sistemas letales autónomos sin supervisión humana.
En su declaración pública, la exdirectora argumentó: “La vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más reflexión de la que tuvieron”.

En su mensaje, de acuerdo con Fortune, Kalinowski aclaró que su renuncia responde a principios, no a conflictos personales con la dirección de la compañía, y reafirmó su respeto profesional hacia Sam Altman y el equipo directivo.
El acuerdo entre OpenAI y el Pentágono se formalizó tras negociaciones con otras empresas tecnológicas; entre ellas, Anthropic, que rechazó participar ante condiciones similares por motivos éticos.
Según el medio financiero Bloomberg Línea, Anthropic se negó a autorizar el uso de sus sistemas de inteligencia artificial en tareas de vigilancia masiva o desarrollo de sistemas autónomos para defensa, lo que derivó en su exclusión de licitaciones federales y aceleró el acercamiento a OpenAI. Esta competencia remarcó las diferencias en políticas internas y criterios éticos sobre el desarrollo de tecnologías de impacto en defensa y seguridad.
La celeridad de la negociación generó alertas en distintos niveles. El director ejecutivo, Sam Altman, admitió en declaraciones a Fortune que el proceso fue “precipitado”. El reconocimiento avivó el análisis público sobre gobernanza, transparencia y las garantías éticas necesarias ante decisiones con posibles repercusiones en la seguridad nacional y los derechos civiles.

Condiciones del acuerdo y respuestas institucionales
Tras oficializarse el pacto, OpenAI emitió un comunicado institucional donde aseguró que el proyecto con el Departamento de Defensa traza “una vía viable para el uso responsable de la IA en materia de seguridad nacional, a la vez que fija claramente nuestras líneas rojas: no a la vigilancia nacional ni a las armas autónomas”, según declaraciones recogidas por Reuters.
La empresa subrayó que luego de la firma se implementaron salvaguardias adicionales para limitar los usos controvertidos, manteniendo un canal de diálogo con empleados, autoridades y organizaciones civiles, y recalcó que reconoce la diversidad de posturas internas y externas, con el objetivo de contribuir a la seguridad nacional sin violar estándares éticos definidos por la organización.
Según portavoces citados por Reuters, se establecieron mecanismos para detectar y restringir aplicaciones no autorizadas, en particular aquellas relacionadas con vigilancia nacional y sistemas de armas autónomas. Este mensaje llega en un escenario marcado por mayor presión regulatoria sobre el sector, mientras el debate por los usos civiles y militares —o duales— de la inteligencia artificial aumenta conforme avanzan proyectos y acuerdos entre empresas y organismos públicos.
El Departamento de Defensa, por su parte, defendió la urgencia de incorporar inteligencia artificial a sus capacidades, alegando que la modernización militar constituye una prioridad estratégica. Siguiendo reportes de Bloomberg Línea, funcionarios del Pentágono insisten en que los acuerdos tecnológicos buscan sostener la competitividad de Estados Unidos frente a avances de potencias extranjeras.
Antecedentes y divergencias éticas en la industria
La negativa de Anthropic a formar parte del acuerdo, motivada por preocupaciones éticas, marcó un antecedente en el sector. La empresa, fundada por antiguos empleados de OpenAI, determinó que sus sistemas no debían intervenir en vigilancia masiva ni desarrollo de armas autónomas, según detalló Bloomberg Línea.
Esta postura derivó en la exclusión de sus productos de la administración federal y el inicio formal de negociaciones con OpenAI, que aceptó condiciones diferentes y desarrolló salvaguardias propias.
Este episodio puso de relieve las divergencias entre firmas líderes respecto a los límites y responsabilidades al crear inteligencia artificial con fines defensa. Algunas compañías priorizan aplicaciones civiles o de investigación, mientras otras consideran legítimo participar en proyectos de defensa siempre que existan límites claros y mecanismos de control.
Trayectoria de Caitlin Kalinowski y experiencia en innovación
Antes de unirse a OpenAI en 2024, Caitlin Kalinowski dirigió proyectos de hardware de realidad aumentada en Meta, liderando el desarrollo de las gafas Orion durante casi dos años y medio, según Fortune.

Encabezó equipos dedicados a la integración de sensores avanzados y al diseño de sistemas de visualización inmersiva. Previamente, trabajó más de nueve años en Oculus, la división de realidad virtual de Meta, participando en la creación de dispositivos pioneros en el sector. Su trayectoria incluye cerca de seis años en Apple, donde contribuyó al diseño de las líneas MacBook Pro y Air, consolidando así su experiencia en innovación de hardware y realidad extendida.
Expertos consultados por Reuters y Fortune destacaron que la salida de directivos con alto perfil técnico, como Kalinowski, evidencia la dificultad de conseguir consensos internos en grandes empresas tecnológicas y de establecer políticas uniformes ante tecnologías en rápido desarrollo.
La controversia motivada por la renuncia de la directora y el acuerdo con el Pentágono expone las dificultades del sector tecnológico para definir marcos de gobernanza, transparencia y control en el desarrollo de inteligencia artificial.
Según datos de Statista, plataforma alemana especializada en estadísticas internacionales, la inversión global en inteligencia artificial para defensa superó USD 8.430 millones en 2025, con proyectado crecimiento hasta 2030. Este entorno económico y político intensifica el debate sobre límites éticos e institucionales en la aplicación de tecnologías emergentes en defensa nacional.

































