Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

EE.UU. considera a Anthropic un riesgo de cadena de suministro por uso militar de IA

Páginas de la web de Anthropic y el logotipo de la compañía se muestran en la pantalla de un ordenador en Nueva York el jueves, 26 de febrero de 2026.
Páginas del sitio web de Anthropic y el logotipo de la empresa se muestran en la pantalla de un ordenador en Nueva York, el jueves 26 de febrero de 2026. Derechos de autor  AP Photo
Derechos de autor AP Photo
Por Roselyne Min con AP
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

La inédita ofensiva del Gobierno de Trump contra Anthropic por las garantías de seguridad de la IA obliga a los contratistas públicos a replantearse el uso del chatbot Claude.

La Administración estadounidense está cumpliendo su amenaza de designar a la empresa de inteligencia artificial (IA) Anthropic como un riesgo para la cadena de suministro, una medida sin precedentes que podría obligar a otros contratistas del Gobierno a dejar de usar su chatbot de IA, Claude.

PUBLICIDAD
PUBLICIDAD

El Pentágono afirmó en un comunicado este jueves que ha "informado oficialmente a la dirección de Anthropic de que la empresa y sus productos se consideran un riesgo para la cadena de suministro, con efecto inmediato".

La decisión parece cerrar la puerta a nuevas negociaciones con Anthropic, casi una semana después de que el presidente Donald Trump y el secretario de Defensa Pete Hegseth acusaran a la compañía de poner en peligro la seguridad nacional.

Trump y Hegseth anunciaron una serie de posibles castigos el pasado viernes, en vísperas de la guerra con Irán, después de que el consejero delegado de Anthropic, Dario Amodei, se negara a dar marcha atrás pese al temor de que los productos de la empresa pudieran utilizarse para la vigilancia masiva de ciudadanos estadounidenses o para armas autónomas.

Amodei afirmó en un comunicado este jueves que "no creemos que esta medida tenga un fundamento legal sólido y no vemos otra opción que impugnarla ante los tribunales".

"De lo que se trata es de un principio fundamental, que las Fuerzas Armadas puedan utilizar la tecnología para todos los fines legales", señaló el comunicado del Pentágono. "Las Fuerzas Armadas no permitirán que un proveedor se inserte en la cadena de mando restringiendo el uso legal de una capacidad crítica y poniendo en riesgo a nuestros militares en combate", añadía.

Amodei replicó que las excepciones limitadas que Anthropic buscaba para acotar la vigilancia y las armas autónomas "se refieren a ámbitos de uso de alto nivel y no a la toma de decisiones operativas".

Añadió que en los últimos días había mantenido "conversaciones productivas" con el Pentágono sobre la posibilidad de seguir utilizando Claude o, en caso de no llegar a un acuerdo, establecer una "transición fluida".

Trump dio a las Fuerzas Armadas un plazo de seis meses para dejar de utilizar Claude, ya ampliamente integrado en plataformas militares y de seguridad nacional. Amodei aseguró que es prioritario garantizar que los militares en el frente no se vean "privados de herramientas importantes en medio de grandes operaciones de combate".

Algunos contratistas militares ya estaban rompiendo lazos con Anthropic, una estrella emergente del sector tecnológico que vende Claude a diversas empresas y agencias gubernamentales.

La empresa de defensa Lockheed Martin afirmó que "seguirá las instrucciones del presidente y del Departamento de Guerra" y buscará otros proveedores de modelos de lenguaje de gran tamaño. "Esperamos un impacto mínimo, ya que Lockheed Martin no depende de ningún proveedor único de LLM para ninguna parte de nuestro trabajo", señaló la compañía.

Sigue sin estar claro cómo interpretará el Departamento de Defensa de Estados Unidos el alcance de esta designación de riesgo. Amodei explicó que una notificación que Anthropic recibió del Pentágono el miércoles indica que solo se aplica al uso de Claude por parte de clientes como "parte directa" de sus contratos militares.

Microsoft aseguró que sus abogados han estudiado la norma y que la empresa "puede seguir trabajando con Anthropic en proyectos no relacionados con la defensa".

El Pentágono recibe críticas por su decisión

La decisión del Pentágono de aplicar una norma concebida para hacer frente a amenazas de suministro procedentes de adversarios extranjeros fue recibida con amplias críticas. Los códigos federales definen el riesgo para la cadena de suministro como "el riesgo de que un adversario pueda sabotear, introducir de forma maliciosa una función indeseada o subvertir" un sistema para interrumpirlo, degradarlo o espiar a través de él.

La senadora estadounidense Kirsten Gillibrand, demócrata por Nueva York y miembro de los comités de Servicios Armados e Inteligencia del Senado, calificó la decisión de "un uso peligroso de una herramienta destinada a hacer frente a tecnología controlada por adversarios". "Esta acción temeraria es cortoplacista, autodestructiva y un regalo para nuestros adversarios", afirmó en un comunicado escrito difundido este jueves.

Neil Chilson, antiguo responsable de tecnología de la Comisión Federal de Comercio por el Partido Republicano y actualmente responsable de políticas de IA en el 'Abundance Institute', sostuvo que la decisión parece "un exceso masivo que perjudicará tanto al sector estadounidense de la IA como a la capacidad de las Fuerzas Armadas para adquirir la mejor tecnología para los militares estadounidenses".

Horas antes, un grupo de antiguos responsables de defensa y seguridad nacional envió una carta a los legisladores estadounidenses expresando su "profunda preocupación" por esta designación.

"El uso de esta autoridad contra una empresa estadounidense es una desviación profunda de su propósito original y sienta un precedente peligroso", señalaba la carta, firmada por antiguos cargos y expertos en política, entre ellos el exdirector de la CIA Michael Hayden y antiguos mandos retirados de la Fuerza Aérea, el Ejército de Tierra y la Armada.

Añadieron que una designación de este tipo está pensada para "proteger a Estados Unidos de la infiltración de adversarios extranjeros, de empresas sometidas a Pekín o Moscú, no de innovadores estadounidenses que operan con transparencia y bajo el imperio de la ley. Aplicar esta herramienta para penalizar a una empresa estadounidense por negarse a retirar salvaguardas contra la vigilancia masiva dentro del país y contra las armas totalmente autónomas es un error de categoría con consecuencias que van mucho más allá de esta disputa".

Anthropic ve dispararse las descargas entre los usuarios

Aunque está perdiendo grandes acuerdos con contratistas de defensa, Anthropic ha experimentado en la última semana un fuerte aumento de descargas por parte de usuarios que respaldan su postura ética. Más de un millón de personas se han registrado cada día esta semana en Claude, según la empresa, lo que ha permitido a la aplicación superar a ChatGPT de OpenAI y a Gemini de Google como principal app de IA en más de 20 países de la App Store de Apple.

La disputa con el Pentágono ha profundizado además la agria rivalidad de Anthropic con OpenAI, que comenzó cuando antiguos directivos de OpenAI, entre ellos el propio Amodei, fundaron Anthropic en 2021.

Pocas horas después de que el Pentágono sancionara a Anthropic el pasado viernes, OpenAI anunció un acuerdo para sustituir de facto a Anthropic por ChatGPT en entornos militares clasificados.

OpenAI aseguró que había solicitado protecciones similares contra la vigilancia interna y las armas totalmente autónomas, pero posteriormente tuvo que modificar sus acuerdos, lo que llevó a su consejero delegado, Sam Altman, a admitir que no debería haberse precipitado en cerrar un acuerdo que "parecía oportunista y chapucero".

Amodei también expresó su pesar por su propia actuación en aquel "día difícil para la empresa" y afirmó este jueves que quería "pedir disculpas directamente" por una nota interna que envió al personal de Anthropic en la que criticaba el comportamiento de OpenAI y sugería que Anthropic estaba siendo castigada por no dedicar "elogios dignos de un dictador" a Trump.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

Guerra cibernética: EE.UU., Israel e Irán incrementan los ataques tras la Operación Furia Épica

¿Se ha utilizado la IA de Anthropic en los ataques de Estados Unidos e Israel en Irán?

EE.UU. amenaza con romper contratos militares con Anthropic por su IA