Claude, la inteligencia artificial usada por el Pentágono en Venezuela e Irán que Trump ha vetado
La administración del presidente Donald Trump ha ordenado al gobierno de Estados Unios no usar Claude, la inteligencia artificial de Anthropic, a la vez que OpenAI anunció un nuevo acuerdo con el Pentágono que ha causado un boicot a ChatGPT.

Un iPhone muestra la aplicación de Claude en la App Store, en febrero de 2026.
- Foto
Michael M. Santiago / Getty Images via AFP
Autor:
Actualizada:
Compartir:
La guerra en Medio Oriente entre Estados Unidos e Israel contra Irán, el ataque de Washington a Venezuela para capturar a Nicolás Maduro y un ambiente de tensión en el Pentágono y las empresas de inteligencia artificial (IA) por el uso de esa tecnología con fines militares. Ese es el complejo panorama general que engloba a Anthropic, uno de los titanes de la IA, responsable del desarrollo de Claude, y los intereses de la administración de Donald Trump, que ha ordenado a todas las agencias del Gobierno de Estados Unidos que abandonen el uso de este chatbot en el sector público.
En medio de esta 'pelea' entre Anthropic y el Gobierno estadounidense, el que se perfila como el gran 'salvador' del Pentágono -que tras el regreso de Trump a la Casa Blanca ha cambiado su nombre a Departamento de Guerra-, es Sam Altman, el director ejecutivo de OpenAI, la empresa detrás de ChatGPT, plataforma que ha sido objeto de una campaña de boicot en los últimos días.

Otros gigantes como xAI (Grok) y Google (Gemini) tampoco se han quedado ajenos a esto.
¿Qué ha pasado?, ¿cómo se llegó a esto? y ¿cuál es la actualidad y el futuro de la IA dentro del uso militar en Estados Unidos?
Claude, una IA usada con fines militares en Venezuela e Irán
En enero de 2026, y después de meses de amenazas a Caracas, Estados Unidos realizó un ataque sorpresa y focalizado en Venezuela que permitió la captura del líder venezolano Nicolás Maduro.
Washington reveló varios detalles de cómo fue la denominada "Operación Resolución Absoluta", con la inclusión de drones sigilosos usados para crear un mapa con la rutina de Maduro y su esposa Cilia Flores, pero que dejaron fuera un elemento: la inclusión de Claude.
Tanto el portal Axios como el periódico Wall Street Journal reportaron un mes después, en febrero, sobre el uso de Claude en la operación para capturar a Maduro, en el marco de un despliegue realizado mediante una asociación entre Anthropic y Palantir, empresa tecnológica de defensa impulsada por IA que es ampliamente usada en las fuerzas estadounidenses y que espera abrir oficinas en Ecuador.

De acuerdo con Semafor, el uso de Claude por parte del Pentágono también se da a través de un servicio secreto en la nube de Amazon.
El 28 de febrero, el mismo día en que empezó la guerra en Medio Oriente, el Washington Post publicó otro reportaje en el que indicaban que Estados Unidos atacó Irán "con la ayuda" de Claude, tanto para inteligencia como para la selección de objetivos.
El 2 de marzo de 2026, Amazon informó de intermitencias en sus servicios en la nube después que drones impactaron en centros de datos en Emiratos Árabes Unidos y Bahrein, en medio del conflicto en esa región del mundo donde Irán ha atacado instalaciones diplomáticas y militares estadounidenses.
Ese mismo día, Anthropic reportaba de problemas con Claude, incluso en sus servicios para gobiernos.
Estados Unidos 'rompe' con Anthropic
Tan pronto se conoció que el Pentágono había sido usado para la operación militar estadounidense en Venezuela, Anthropic se contactó con el Departamento de Guerra para corroborar esta información, lo que despertó preocupación en el personal militar, de acuerdo con un funcionario citado por Axios.
Sin embargo, la situación escaló rápidamente cuando el Pentágono reveló a la prensa estadounidense que estaba "reevaluando" su relación con Anthropic, después que la firma liderada por Amodei no aprobó las demandas de uso de la administración Trump.
Pese a los acercamientos entre el Gobierno estadounidense y Anthropic, que incluso resultaron en una visita de Amodei al Pentágono el 24 de febrero, Pete Hegseth, el secretario de Guerra estadounidense, anunció la designación de Anthropic como un "riesgo a la cadena de suministro a la seguridad nacional" de Estados Unidos.
Hegseth recalcó la necesidad de que el Pentágono haga un uso "completo e irrestricto de los modelos de Anthropic para cada propósito legal en defensa" del país.

La empresa, de su parte, sostiene que las únicas dos excepciones que ha expuesto para el uso de sus modelos de inteligencia artificial es que Claude no sea usado para la vigilancia masiva de estadounidenses y la implementación del modelo en armas completamente autónomas (que no requieren intervención de un humano).
"Estados Unidos jamás permitirá que una compañía 'progre' dicte como nuestros militares luchan y ganan guerras", dijo Trump el 27 de febrero en Truth Social, donde también dijo que ordenó a todas las agencias federales de Estados Unidos cesar inmediatamente el uso de Claude. Aunque también dio un margen de seis meses para que entidades como el Pentágono lleven a cabo esta retirada de la tecnología de Anthropic.
ChatGPT al 'rescate'... y boicoteado
Tan pronto se anunció que Anthropic era designado como un riesgo para la seguridad nacional, Sam Altman, el director ejecutivo de OpenAI, anunció que había llegado a un acuerdo con el Pentágono, afirmando que era en términos muy similares a los que exigía Amodei.
Desde entonces, y a propósito de una campaña en línea llamada 'Cancel ChatGPT', las desinstalaciones del chatbot de OpenAI aumentaron un 295% desde el 28 de febrero. Eso después de que Altman anunció el acuerdo con el Departamento de Guerra, según cifras de la empresa de inteligencia de mercado SensorTower citadas por el portal tecnológico TechCrunch.

OpenAI no es la única firma tecnológica de IA que ha sido autorizada en los últimos días de febrero de 2026 a ser usada en los sistemas clasificados del Pentágono, pues xAI (la firma de Elon Musk detrás de Grok) ya ha recibido el visto bueno de parte de los militares norteamericanos.
De manera independiente, trabajadores de OpenAI y Google (que desarrolla Gemini) publicaron una carta para mostrar su apoyo a Amodei y Anthropic en esta disputa con la administración Trump.
Compartir: