La empresa afirma que el incidente presuntamente avalado por China ha sido el primer ciberataque documentado llevado a cabo, en gran medida, sin intervención humana.
La startup de inteligencia artificial (IA) Anthropic afirma que un equipo de piratas informáticos respaldados por China han usado sus herramientas para llevar a cabo ciberataques automatizados contra grandes empresas y Gobiernos.
Anthropic, con sede en Estados Unidos, cree "con un alto grado de certeza" que los atacantes, que llevaron a cabo unos 30 ataques, pertenecen a "un grupo patrocinado por el Estado chino". Los atacantes utilizaron la herramienta Claude Code en un intento de comprometer objetivos en todo el mundo, incluidas agencias gubernamentales y empresas financieras y tecnológicas. Estos "lograron su objetivo en un número reducido de casos", señala la compañía.
Anthropic no ha desvelado los grupos afectados, pero ha asegurado que la operación fue la "primera campaña de ciberespionaje orquestada con IA" documentada. Según Anthropic, los atacantes pretendían emplear Claude Code para extraer datos sensibles de sus objetivos.
Aunque Claude está entrenado para evitar comportamientos dañinos, Anthropic afirma que los piratas informáticos engañaron a la herramienta para que ejecutara tareas automatizadas maliciosas, fingiendo que eran pruebas de ciberseguridad. Según la empresa, los atacantes usaron IA para llevar a cabo entre el 80% y el 90% de la campaña, con participación humana requerida solo de forma esporádica.
Si se prueban las afirmaciones de Anthropic, significaría que "los grupos hostiles ya no están experimentando (con IA). Están operativos", dice Graeme Stewart, responsable del sector público en la empresa de ciberseguridad Check Point Software Technologies. Anthropic indica que detectó el ataque a mediados de septiembre. Durante los 10 días siguientes, cortó el acceso del grupo a Claude y contactó con las organizaciones afectadas y con las fuerzas del orden.
La empresa advirte de que este tipo de ataques probablemente serán más eficaces con el tiempo, y que ha ampliado sus capacidades de detección para señalar actividad potencialmente maliciosa. Sus expertos trabajan en métodos adicionales para investigar y detectar ataques distribuidos y a gran escala como este.
Stewart apunta que también es probable que otros modelos de IA puedan explotarse para cometer delitos en internet. "Cualquier asistente de IA de uso general puede convertirse en herramienta para delinquir si alguien con suficiente intención lo fuerza de la manera adecuada", concluye el informático.