Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Una juez de EE.UU. ve un intento de castigar a Anthropic por vetar su IA

ARCHIVO - En esta foto se muestra el sitio web y la aplicación móvil de Anthropic, en Nueva York, el 5 de julio de 2024.
ARCHIVO - En esta foto aparecen el sitio web y la aplicación móvil de Anthropic, en Nueva York, el cinco de julio de 2024. Derechos de autor  AP Photo/Richard Drew, File
Derechos de autor AP Photo/Richard Drew, File
Por Pascale Davies
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

Una juez federal cuestiona si el Gobierno de Donald Trump busca castigar a Anthropic tras su negativa a permitir el uso militar sin restricciones de su modelo Claude. La empresa defiende ante el tribunal que la medida vulnera su libertad de expresión.

La prohibición impuesta por el Gobierno de Estados Unidos a Anthropic parece tener un carácter punitivo, tras el enfrentamiento público de la empresa con el Pentágono por su negativa a permitir un uso militar sin restricciones de su modelo de IA Claude.

PUBLICIDAD
PUBLICIDAD

Anthropic defendió el martes su posición ante un tribunal federal de San Francisco, en el que solicitó una orden judicial contra la decisión del Gobierno estadounidense de incluirla en una lista negra como riesgo para la seguridad nacional.

La juez federal Rita F. Lin afirmó al comienzo de la vista que "parece un intento de paralizar Anthropic", y añadió que le preocupaba que el Gobierno pudiera estar castigando a la empresa por criticar abiertamente la posición del Ejecutivo, según informaron medios estadounidenses.

El presidente de Estados Unidos, Donald Trump, y el secretario de Defensa, Pete Hegseth, anunciaron públicamente en febrero que rompían relaciones con la empresa de inteligencia artificial (IA) después de que esta se negara a permitir un uso militar sin restricciones de su modelo de IA Claude. Entre las restricciones en disputa figuran el uso de armas autónomas letales sin supervisión humana y la vigilancia masiva de la población estadounidense.

Como respuesta, el Gobierno estadounidense calificó a Anthropic de "riesgo para la cadena de suministro y para la seguridad nacional" y ordenó a los organismos federales que dejaran de utilizar Claude.

El 9 de marzo, Anthropic presentó dos demandas contra el Gobierno por su catalogación como riesgo para la cadena de suministro. Una solicita que se reconsidere esa calificación y la otra sostiene que la Administración Trump vulneró el derecho a la libertad de expresión de la empresa protegido por la Primera Enmienda.

Lin afirmó en la sala que el Pentágono tiene derecho a decidir qué productos de IA utiliza, pero se preguntó si el Gobierno había vulnerado la ley al prohibir a los organismos públicos usar Anthropic y también cuando Hegseth anunció que quienes quisieran relacionarse con el Pentágono debían cortar lazos con la empresa, según NPR.

Un abogado del Gobierno sostuvo que las acciones del Pentágono no fueron de represalia y se basaron en los posibles usos del modelo de IA de Anthropic, no en la decisión de la empresa de hacer pública la discrepancia.

NPR añadió que Anthropic podría estar en riesgo en el futuro porque podría actualizar su modelo de IA Claude de una forma que pusiera en peligro la seguridad nacional.

'Euronews' Next se puso en contacto con Anthropic para recabar su versión, pero no había recibido respuesta en el momento de la publicación.

Qué supondría el fallo para las empresas de IA

Ser considerado un riesgo para la cadena de suministro suele aplicarse solo a empresas extranjeras.

"Parece inapropiado aplicar aquí esa calificación", afirmó Ben Goertzel, científico informático y consejero delegado de SingularityNet y The Artificial Superintelligence Alliance.

"Esto significa que el poder ejecutivo puede reinterpretar las palabras y las leyes como le parezca", declaró a 'Euronews' Next.

Goertzel añadió que, si se aplicara la versión más estricta de esa calificación de riesgo para la cadena de suministro y eso implicara que Anthropic no pudiera vender software a ninguna empresa que tuviera algún tipo de relación comercial con el Gobierno, sería "extremadamente perjudicial para la compañía".

Dijo que Anthropic sobreviviría financieramente, ya que hay mucho más negocio fuera de los proyectos gubernamentales y "ganaría apoyo entre parte de la población estadounidense crítica con Trump".

Sin embargo, advirtió de que el efecto inmediato de mantener la designación de riesgo para la cadena de suministro sería "desincentivar a otras empresas a plantar cara a la Administración Trump".

"Está intentando enseñar a la industria de la IA a ponerse en fila como todos los demás", afirmó Goertzel.

La juez Lin señaló que esperaba pronunciarse en los próximos días sobre si suspende temporalmente la prohibición del Gobierno mientras el tribunal sigue examinando el fondo del caso.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

OpenAI cierra la app de vídeo Sora tras críticas por su IA y deepfakes

Los científicos del CERN extraen por primera vez antimateria del laboratorio

Suspenden a un veterano periodista por publicar citas falsas generadas con inteligencia artificial