OpenAI lleva un ChatGPT de uso militar al Pentágono en medio de renuncias clave en el sector de la IA
Investigadores de OpenAI y Anthropic abandonan sus puestos criticando la falta de control y seguridad, justo cuando ChatGPT anuncia su ingreso al Pentágono y sus creadores admiten no comprender del todo cómo funciona la inteligencia artificial.

Archivo. Un celular y una computadora muestran las páginas de inicio de ChatGPT, de OpenAI en 2023.
- Foto
Wu Hao / EFE / EPA
Autor:
Actualizada:
Compartir:
OpenAI, la empresa de Sam Altman que desarrolla ChatGPT, anunció que ofrecerá una versión especial de su famoso chatbot al Departamento de Guerra de Estados Unidos (el Pentágono), pocos días antes de que directivos e investigadores de OpenAI y Anthropic salieran de sus firmas tras criticar el ambiente de desarrollo de la inteligencia artificial (IA).
Una IA de uso militar para "prevenir futuros conflictos"
"Creemos que las personas responsables de defender a nuestro país deberían tener acceso a las mejores herramientas, y es importante que Estados Unidos y otros países democráticos entiendan como, con las salvaguardias adecuadas, la IA puede ayudar a proteger personas, disuadir adversarios y prevenir futuros conflictos", expresó OpenAI en un comunicado.
Según informó la firma de Altman el pasado lunes 9 de febrero de 2026, esta versión personalizada de ChatGPT será utilizada para procesar información no clasificada.
Entre las funciones que se le asignarán a la IA está la de brindar apoyo a personal del Pentágono "en una gran variedad de flujos de trabajo administrativos, de investigación, planificación y apoyo a misiones".
La futura inclusión de la tecnología de OpenAI en los servidores del Pentágono ocurre en medio de una serie de renuncias y despidos en la industria de la IA, que están envuelta por críticas a la manera en que se desarrolla la tecnología en el sector.

Investigadores y directivos salen de OpenAI y Anthropic
Ryan Beiermeister, vicepresidenta de producto que se había opuesto al 'modo adulto' anunciado por Altman a finales de 2025 (antes de la polémica por las imágenes 'bikini' de Grok, la IA de Elon Musk), fue despedida en enero según se conoció esta segunda semana de febrero de 2026 .
Al despido de Beiermeister, que se argumentó bajo acusaciones de discriminación a un empleado, luego se se sumó la renuncia de la investigadora para políticas de seguridad Zoë Hitzig, después de que OpenAI empezó a probar con la inclusión de publicidad dentro de ChatGPT.
"Están cometiendo los mismos errores que Facebook", dijo Hitzig en una columna publicada en el New York Times.
Según Hitzig, que millones de personas revelen información personal detallada a ChatGPT les facultaría para crear publicidades con un "potencial para manipular a los usuarios de maneras en las que no tenemos las herramientas para comprenderlo, o prevenirlo".

En esta semana también generó atención la renuncia de Mrinank Sharma como jefe de investigación de seguridad de Anthropic, los responsables del desarrollo de Claude.
"El mundo está en peligro. Y no es solo por la IA o las armas biológicas, sino por la serie de crisis interconectadas que se están desencadenando en este momento", expuso Sharma en una carta pública.
¿Los CEO de la IA saben cómo funcionan sus chatbots?
En distintos momentos, tanto el director ejecutivo de OpenAI, Sam Altman, como el de Anthropic, Dario Amodei, han reconocido que no conocen a detalle cómo funcionan o de qué son capaces las inteligencias artificiales que sus empresas crean.
"No sabemos si los modelos [de IA] son conscientes. Ni siquiera estamos seguros de qué significaría que un modelo sea consciente", dijo Amodei en una reciente entrevista publicada este 12 de febrero por el New York Times, mientras plataformas como Openclaw se popularizan por tener sus propias redes sociales en las que los humanos no pueden interactuar.
Las palabras del CEO de Anthropic son similares a las que el CEO de OpenAI hizo hace dos años, en 2024, cuando reconoció que su empresa no conocía completamente la manera en la que ChatGPT funciona.

"Ciertamente no hemos resuelto la interpretabilidad", dijo Altman en referencia al término usado académicamente para referirse a la comprensión de cómo sistemas de IA trabajan.
"No entendemos qué pasa en tu cerebro neurona por neurona, pero sabemos que pueden seguir algunas reglas y podemos pedirte que expliques por qué piensas algo", argumentó Altman en aquella ocasión.
Compartir: