Mandos de todo el mundo, incluido el Mando Central de Estados Unidos para Oriente Próximo (CENTCOM), han utilizado las herramientas de inteligencia artificial de Anthropic para analizar inteligencia, identificar objetivos y simular escenarios bélicos, según informó el 'Wall Street Journal'.
El Gobierno estadounidense podría haber utilizado herramientas de Anthropic, una empresa de inteligencia artificial con sede en San Francisco, durante los ataques contra Irán.
Apenas unas horas antes del ataque, el presidente de Estados Unidos, Donald Trump, anunció que de la empresa y dio al Pentágono un período de transición de seis meses para eliminar los sistemas existentes. La decisión llegó tras meses de tensiones entre Anthropic y el Pentágono.
Hubo una disputa entre el Pentágono y Anthropic sobre el uso militar del modelo Claude de inteligencia artificial de la empresa. El director general de Anthropic, Dario Amodei, ha insistido repetidamente en que la empresa no permitirá que se utilicen sistemas de inteligencia artificial en los dos ámbitos siguientes: vigilancia masiva dentro de EE.UU. y sistemas de armas autónomas letales que funcionen sin supervisión humana. El Pentágono ha argumentado que debería tener derecho a utilizar sistemas de IA "para todos los fines legales".
¿De Maduro a Jamenei?
Se reveló que la herramienta Claude también fue utilizada en la operación militar en la que fue capturado el presidente venezolano Nicolás Maduro. Se afirma que el Pentágono utilizó Claude a través de un acuerdo con la empresa de análisis de datos Palantir.
Según el 'Wall Street Journal', mandos de todo el mundo, incluido el Mando Central de EE.UU. para Oriente Próximo (CENTCOM), han utilizado las herramientas de inteligencia artificial de Anthropic para el análisis de inteligencia, la identificación de objetivos y la simulación de escenarios bélicos.
En las noticias sobre el tema se hicieron las siguientes declaraciones: "Horas después de que el presidente Trump anunciara que el Gobierno federal pondría fin al uso de las herramientas de inteligencia artificial de Anthropic, las mismas herramientas se utilizaron para lanzar un ataque aéreo masivo contra Irán."
El líder religioso de Irán, el ayatolá Alí Jamenei, murió en ataques aéreos estadounidenses e israelíes el sábado por la mañana. Se cree que murió en su despacho de Teherán.
El hecho de que fuentes estadounidenses anónimas afirmen que Claude fue utilizado por las fuerzas de Oriente Próximo para la detección de objetivos plantea interrogantes sobre el papel de la inteligencia artificial en el asesinato de Jamenei.
El uso de Claude en misiones tan críticas sugiere que el modelo ya se ha integrado en las operaciones militares estadounidenses, a pesar del deterioro de las relaciones entre Anthropic y el Pentágono.
Anthropic emprende acciones legales
Anthropic tiene un contrato con el Pentágono para "desarrollar inteligencia artificial responsable para operaciones de Defensa" por valor de hasta 200 millones de dólares (170 millones de euros). La empresa también proporciona sistemas de IA a través de Palantir para su uso en redes clasificadas de defensa e inteligencia. Anthropic fue una de las primeras grandes empresas de IA autorizadas a prestar servicios en esas redes secretas. Sin embargo, todo esto está en riesgo con la última decisión de Trump.
El Pentágono clasificará a la empresa como un "riesgo para la cadena de suministro" tras la última tensión. Esta clasificación podría provocar que Anthropic sea tratada como una empresa extranjera en EE.UU. Debido a esta etiqueta, todas las empresas que hagan negocios con el gobierno estadounidense tendrán que cortar lazos con Anthropic.
Anthropic emprenderá una lucha legal contra esta decisión. La empresa afirma en un comunicado que la presión del Pentágono no cambiará su postura sobre la vigilancia masiva o el desarrollo de armas totalmente autónomas, y anuncia que recurrirá ante los tribunales la clasificación de "riesgo para la cadena de suministro".
OpenAI llega a un acuerdo con el Ministerio
Cientos de personas, entre ellas empleados de Google y OpenAI, apoyaron a la empresa contra la petición del Pentágono de acceso sin restricciones al modelo de inteligencia artificial Claude de Anthropic. Más de 430 empleados de Google y OpenAI firmaron una carta abierta en apoyo de Anthropic.
El CEO de OpenAI, Sam Altman, también había dicho en correspondencia interna y declaraciones públicas que apoyaba los límites establecidos por Anthropic. Sin embargo, poco después, OpenAI anunció que había llegado a un acuerdo con el Ministerio de Defensa sobre el uso de modelos de inteligencia artificial.
Altman afirmó que OpenAI "tomaría medidas técnicas de seguridad para garantizar que sus modelos se comportan como es debido" y escribió: "Pedimos al Ministerio que extienda estas condiciones a todas las empresas de IA; creemos que todo el mundo debería estar dispuesto a aceptarlas."
Aún se desconoce por qué Defensa aprobó OpenAI y no Anthropic. Sin embargo, xAI de Elon Musk se encuentra entre las empresas que tienen acuerdos con el departamento. Según 'WSJ', los expertos en inteligencia artificial afirman que se tardará meses en sustituir a Claude por otros modelos.
¿Cómo puede EE.UU. utilizar la inteligencia artificial en estas operaciones?
Existen múltiples formas en las que EE.UU. podría utilizar la inteligencia artificial en operaciones como las de Venezuela e Irán. Por ejemplo, el Departamento de Defensa estadounidense utiliza el Proyecto Maven, un programa de inteligencia artificial que procesa cantidades masivas de datos procedentes de imágenes de satélites y drones. Este programa identifica automáticamente activos militares ocultos y entradas a búnkeres para que los examinen los analistas humanos.
Según el análisis de 'WION News', las cámaras ópticas tradicionales no pueden ver el subsuelo, mientras que los algoritmos de inteligencia artificial también pueden detectar cavidades subterráneas analizando radares de apertura sintética y sensores sísmicos. Esta avanzada capacidad de procesamiento de datos ayuda a los militares a cartografiar la disposición exacta de los complejos de búnkeres fortificados.
A principios de 2026, los medios de comunicación internacionales informaron de que Jamenei se había trasladado a una red de búnkeres fuertemente fortificados en Teherán. Estos túneles profundos interconectados están diseñados específicamente para garantizar su seguridad y mantener el mando durante posibles ataques militares.
Aunque los detalles operativos se mantienen en secreto, el Ejército estadounidense utiliza herramientas de inteligencia artificial como Claude para el análisis rápido de documentos y el procesamiento de datos interceptados.
Estos modelos pueden traducir y sintetizar rápidamente las comunicaciones monitorizadas para localizar un objetivo. Hace tiempo que se debate si Estados Unidos utilizará esta capacidad para localizar a Jamenei.