Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

EE.UU. amenaza con romper contratos militares con Anthropic por su IA

ARCHIVO - El secretario de Defensa Pete Hegseth posando frente al Pentágono durante un acto de bienvenida al ministro de Defensa japonés en Washington el 15 de enero de 2026.
ARCHIVO - El secretario de Defensa Pete Hegseth posando frente al Pentágono durante un acto de bienvenida al ministro de Defensa japonés en Washington el 15 de enero de 2026. Derechos de autor  AP Photo/Kevin Wolf, File
Derechos de autor AP Photo/Kevin Wolf, File
Por Anna Desmarais con AP
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

La empresa de inteligencia artificial Anthropic y el Gobierno de Estados Unidos están en punto muerto. Esto es todo lo que está en juego.

El Gobierno de Estados Unidos amenaza con rescindir sus contratos militares con la empresa Anthropic si no abre su tecnología de inteligencia artificial para un uso militar sin restricciones.

PUBLICIDAD
PUBLICIDAD

Anthropic desarrolla el chatbot Claude y es la última de sus rivales que aún no ha puesto su tecnología a disposición de una nueva red interna de las Fuerzas Armadas de Estados Unidos.

Su consejero delegado, Dario Amodei, ha expresado en reiteradas ocasiones sus preocupaciones éticas sobre un uso sin control de la IA por parte de los gobiernos, entre ellos los riesgos de drones armados completamente autónomos y de sistemas de vigilancia masiva asistidos por IA capaces de rastrear la disidencia.

Anthropic obtuvo en julio pasado un contrato de 200 millones de dólares (167 millones de euros) del Departamento de Defensa de Estados Unidos para "prototipar capacidades punteras de IA que refuercen la seguridad nacional estadounidense", según informó la propia Anthropic. La empresa cerró en 2024 un acuerdo de colaboración con Palantir Technologies para integrar Claude en el software de inteligencia de Estados Unidos.

Según las informaciones, el secretario de Defensa, Pete Hegseth, afirmó el martes que rescindiría el contrato de 200 millones de dólares (167 millones de euros) y calificaría a la empresa como "riesgo para la cadena de suministro" si Anthropic no accedía a sus exigencias.

Si Anthropic es designada como riesgo para la cadena de suministro en virtud de la ley estadounidense de contratación pública, el Gobierno podría excluir a la empresa de la adjudicación de contratos, vetar sus productos y ordenar a los contratistas principales que no recurran a ese proveedor.

Según esas mismas informaciones sobre la reunión de Hegseth con Dario Amodei, consejero delegado y cofundador de Anthropic, el secretario de Defensa también amenazó con utilizar la Ley de Producción de Defensa contra la empresa, una norma que otorga al presidente de Estados Unidos amplios poderes para ordenar a las compañías privadas que den prioridad a las necesidades de seguridad nacional, incluido el acceso a su tecnología.

El equipo de 'Euronews Next' se puso en contacto con Anthropic y con el Departamento de Defensa del Gobierno estadounidense para confirmar estas acusaciones, pero no obtuvo una respuesta inmediata.

Anthropic da marcha atrás en su principal promesa de seguridad

Anthropic se ha presentado durante años como la más responsable y prudente entre las grandes empresas de IA, desde que sus fundadores abandonaron OpenAI para crear la startup en 2021.

El martes, Anthropic anunció en una entrevista con la revista 'Time' que abandona su compromiso de no lanzar un sistema de IA salvo que pudiera garantizar que las medidas de seguridad eran adecuadas. En su lugar, presentó una nueva versión de su política de escalado responsable, que define el marco de la empresa para reducir los riesgos catastróficos de la IA.

Jared Kaplan, director científico de Anthropic, explicó a la publicación que impedir a la compañía entrenar nuevos modelos mientras sus competidores avanzan sin salvaguardas no les ayudaría a mantenerse en la carrera de la IA.

"Si un desarrollador de IA detuviera su trabajo para aplicar medidas de seguridad mientras otros siguieran adelante con el entrenamiento y despliegue de sistemas de IA sin salvaguardas sólidas, el resultado podría ser un mundo menos seguro", señala la nueva política de Anthropic.

"Los desarrolladores con menos protecciones marcarían el ritmo y los responsables perderían la capacidad de investigar en seguridad y de impulsar el beneficio público". La política distingue entre el deseo de Anthropic de extender estándares de seguridad al sector y sus propios objetivos como empresa, en los que la seguridad sigue siendo una prioridad.

Anthropic señaló que su nueva política implica fijar hojas de ruta de seguridad "ambiciosas pero realizables" para sus modelos, además de publicar informes de riesgos que detallen los peligros previstos y aclaren si el lanzamiento de un modelo está justificado.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

China pone a prueba el metro del futuro con perros robot y humanoides

¿Es posible vencer al algoritmo en unas redes sociales que enganchan por diseño?

EE.UU. amenaza con romper contratos militares con Anthropic por su IA