Las empresas de inteligencia artificial Anthropic y OpenAI buscan contratar a especialistas en armas químicas y explosivos para evitar un uso catastrófico de su tecnología. La medida llega tras las tensiones de Anthropic con el Gobierno de Estados Unidos por la seguridad.
Las empresas de inteligencia artificial (IA) Anthropic y OpenAI buscan contratar a especialistas en armas y explosivos para evitar un uso indebido de su tecnología, según las ofertas de empleo publicadas por ambas compañías.
Anthropic anunció en una publicación en LinkedIn que está buscando a un experto en políticas sobre armas químicas y explosiones para evitar "un uso catastrófico" de su tecnología, definiendo cómo sus sistemas de IA gestionan información sensible en estos ámbitos.
La persona que se incorpore a Anthropic diseñará y supervisará los límites de seguridad que determinan cómo responden los modelos de IA a solicitudes relacionadas con armas químicas y explosivos. También llevará a cabo "respuestas rápidas" ante cualquier escalada que Anthropic detecte en las consultas sobre armas y explosiones.
Los candidatos deben contar con un mínimo de cinco años de experiencia en "defensas frente a armas químicas y/o explosivos", así como conocimientos sobre "dispositivos de dispersión radiológica", o bombas sucias. El puesto incluye diseñar nuevas evaluaciones de riesgo en las que la dirección de la empresa pueda "confiar en lanzamientos especialmente delicados".
En una oferta publicada a comienzos de este mes, OpenAI señalaba que buscaba investigadores para incorporarse a su equipo de Preparedness, encargado de vigilar "riesgos catastróficos relacionados con los modelos de IA más avanzados".
La compañía también ofertó un puesto de Threat Modeler, que otorgará a una persona la responsabilidad principal de "identificar, modelizar y anticipar los riesgos vinculados a esos modelos de frontera" y que actuará como "nodo central que conecte las perspectivas técnicas, de gobernanza y de políticas sobre la priorización, el enfoque y los motivos de nuestra estrategia frente a los riesgos de la IA más avanzada".
'Euronews' Next se puso en contacto con Anthropic y OpenAI para recabar comentarios sobre estas ofertas de empleo, pero no obtuvo una respuesta inmediata.
Estas contrataciones se producen después de que Anthropic presentara un recurso legal contra el Gobierno de Estados Unidos por haberla designado como "riesgo para la cadena de suministro", una etiqueta que permite a las autoridades bloquear contratos o indicar a los departamentos que no trabajen con la empresa.
El conflicto comenzó el 24 de febrero, cuando el Departamento de Guerra (DOW) exigió acceso sin restricciones al chatbot Claude de Anthropic.
El consejero delegado, Dario Amodei, afirmó que los contratos con el DOW no deberían contemplar casos en los que Claude se utilice para una vigilancia masiva dentro del país ni se integre en armas totalmente autónomas.
Poco después del enfrentamiento con Anthropic, OpenAI firmó un acuerdo con el Departamento de Guerra (DOW) para desplegar su IA en entornos clasificados. La empresa aseguró que el convenio incluye líneas rojas estrictas, como la prohibición de utilizar sus sistemas para vigilancia masiva o para armas autónomas.