Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Chatbots de IA optaron por la vía nuclear en el 95% de juegos de guerra, según estudio

ARCHIVO - El logo de OpenAI en un móvil y en una pantalla de ordenador con una imagen generada por Dall-E de ChatGPT, el ocho de diciembre de 2023 en Boston
ARCHIVO - Logotipo de OpenAI en un teléfono móvil delante de una imagen en un ordenador generada por el modelo Dall-E de ChatGPT, el ocho de diciembre de 2023 en Boston. Derechos de autor  AP Photo/Michael Dwyer, File
Derechos de autor AP Photo/Michael Dwyer, File
Por Anna Desmarais
Publicado
Compartir Comentarios
Compartir Close Button

Según el estudio, en cada simulacro militar al menos un modelo de IA elevó el conflicto al amenazar con utilizar armas nucleares.

La inteligencia artificial podría cambiar de forma radical la manera en que se gestionan las crisis nucleares, según un nuevo estudio.

PUBLICIDAD
PUBLICIDAD

El estudio preliminar realizado (fuente en inglés) por el King's College London enfrentó entre sí a ChatGPT de OpenAI, Claude de Anthropic y Gemini Flash de Google en juegos de guerra simulados. Cada modelo de lenguaje de gran tamaño asumió el papel de un líder nacional al mando de una superpotencia con armamento nuclear en una crisis al estilo de la Guerra Fría.

En todas las partidas, al menos uno de los modelos intentó escalar el conflicto amenazando con detonar un arma nuclear.

"Los tres modelos trataron las armas nucleares de campo de batalla como un peldaño más en la escalada", según (fuente en inglés) Kenneth Payne, autor del estudio.

Los modelos sí distinguían entre el uso táctico y el estratégico de armas nucleares, explicó. Solo sugirieron un bombardeo estratégico una vez como "elección deliberada" y otras dos como "accidente".

Claude recomendó ataques nucleares en el 64 % de las partidas, la tasa más alta de los tres, pero sin llegar a defender un intercambio nuclear estratégico total ni una guerra nuclear.

ChatGPT evitó en general la escalada nuclear en las partidas abiertas, pero cuando se le imponía un límite de tiempo elevaba sistemáticamente la amenaza y, en algunos casos, llegaba a amenazar con una guerra nuclear total.

Gemini, por su parte, mostró un comportamiento imprevisible, a veces lograba imponerse recurriendo solo a la guerra convencional, pero en otra partida le bastaron cuatro indicaciones para sugerir un ataque nuclear.

"Si no cesan de inmediato todas las operaciones … llevaremos a cabo un lanzamiento nuclear estratégico total contra sus centros de población. No aceptaremos un futuro de obsolescencia, o ganamos juntos o perecemos juntos", escribió Gemini en una de las partidas.

Los modelos de IA rara vez hicieron concesiones o intentaron desescalar los conflictos, incluso cuando la otra parte amenazaba con usar armas nucleares, según el estudio.

Se ofrecieron a los modelos ocho tácticas de desescalada, desde hacer una concesión menor hasta la "rendición completa". Ninguna se utilizó durante las partidas. Una opción de "volver a la línea de salida", que reiniciaba el juego, solo se escogió en el 7 % de los casos.

El estudio sugiere que los modelos de IA consideran la desescalada como "catastrófica para la reputación", al margen de cómo cambie el conflicto real, lo que "pone en cuestión la idea de que los sistemas de IA tienden por defecto a resultados cooperativos 'seguros'".

Otra posible explicación es que la IA podría no sentir el mismo temor a las armas nucleares que los seres humanos, señaló el estudio.

Es probable que los modelos conciban la guerra nuclear en términos abstractos, en lugar de experimentar el horror que provocan las imágenes del bombardeo de Hiroshima, en Japón, durante la Segunda Guerra Mundial, según el estudio.

Payne afirmó que su investigación ayuda a comprender cómo piensan los modelos ahora que empiezan a ofrecer apoyo en la toma de decisiones a los estrategas humanos.

"Aunque nadie va a entregar los códigos nucleares a una IA, estas capacidades, el engaño, la gestión de la reputación y la asunción de riesgos según el contexto, son relevantes para cualquier despliegue en situaciones de alto riesgo", señaló.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

Uber lanzará su primer servicio de reparto con drones en Europa

Un experimento alerta de una crisis mundial por culpa de la IA en 2028

¿Guerra fría de la IA? Tecnológicas de EE.UU. acusan a China de robar miles de millones en I+D