Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Un tribunal de EE.UU. rechaza el recurso de Anthropic contra el veto del Pentágono

ARCHIVO - Se muestra el sitio web y la aplicación móvil de Anthropic en esta foto tomada en Nueva York, el 5 de julio de 2024.
ARCHIVO - Se muestra el sitio web y la aplicación móvil de Anthropic en esta foto tomada en Nueva York, el 5 de julio de 2024. Derechos de autor  AP Photo/Richard Drew, File
Derechos de autor AP Photo/Richard Drew, File
Por Anna Desmarais & AP
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

La Administración Trump calificó a la empresa de IA como riesgo para la cadena de suministro y ordenó a los organismos federales que dejaran de utilizar Claude, el asistente de IA de Anthropic, después de que la compañía rechazara el acceso militar sin restricciones a su modelo.

Un tribunal de Estados Unidos ha rechazado la petición de la empresa estadounidense de inteligencia artificial (IA) Anthropic para que se le protegiera de la etiqueta de riesgo para la cadena de suministro por parte del Gobierno del país. Nunca antes se había aplicado esta calificación a una compañía estadounidense.

PUBLICIDAD
PUBLICIDAD

La Administración Trump calificó a la empresa de IA como riesgo para la cadena de suministro y ordenó en febrero a los organismos federales que dejaran de utilizar Claude, el asistente de IA de Anthropic, después de que la compañía se negara a permitir un acceso militar sin restricciones a su modelo.

Esta etiqueta impide que los contratistas que trabajan con el Pentágono utilicen los modelos de IA de la compañía en contratos del Departamento de Defensa. Las restricciones que se están impugnando incluyen el uso de Claude en armas autónomas letales sin supervisión humana y en programas de vigilancia masiva de la población estadounidense.

En 2025, Anthropic firmó un contrato de 200 millones de dólares (171,5 millones de euros) con el Pentágono para desplegar su tecnología en los sistemas militares. Tras ese acuerdo, el chatbot de IA se había implantado en las redes de información clasificada del Gobierno estadounidense, se había desplegado en los laboratorios nucleares nacionales y realizaba análisis de inteligencia directamente para el Departamento de Defensa.

Este revés para Anthropic en Washington llega después de que la empresa ganara otra demanda centrada en las mismas cuestiones en un tribunal de San Francisco, lo que obligó al Gobierno de Donald Trump a retirar la etiqueta.

Anthropic presentó las dos demandas en San Francisco y Washington el mes pasado y acusó al Gobierno de Trump de llevar a cabo una "campaña de represalias ilegal". En el escrito presentado en marzo, el Departamento de Defensa sostuvo que Anthropic podría "intentar desactivar su tecnología o modificar de forma preventiva el comportamiento de su modelo" antes o durante "operaciones de combate" si la empresa "considera que se están traspasando sus líneas rojas corporativas".

El panel del Tribunal de Apelaciones del Circuito del Distrito de Columbia afirmó que no veía motivos para revocar las decisiones del Gobierno de Trump porque "no está claro el alcance exacto del perjuicio económico de Anthropic". No obstante, el tribunal de apelación escuchará más pruebas de este caso en mayo.

"Estamos agradecidos de que el tribunal haya reconocido que estas cuestiones deben resolverse con rapidez y seguimos confiando en que los tribunales acabarán concluyendo que estas designaciones de riesgo en la cadena de suministro eran ilegales", señaló Anthropic en un comunicado a la agencia Associated Press.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

Meta lanza Muse Spark, su modelo de IA para batir a GPT Pro

Investigadores suizos desarrollan un perro robot para acelerar exploración lunar y marciana

Miles de usuarios de España e Italia compartieron material sexual no consentido por Telegram