Un hombre se suicida después de que un chat de IA le invitara a hacerlo

Un belga se suicida tras hablar con un chatbot de inteligencia artificial
Un belga se suicida tras hablar con un chatbot de inteligencia artificial Derechos de autor Euronews/ Canva
Derechos de autor Euronews/ Canva
Por Imane El Atillah
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

Un hombre acaba con su vida después de que un chatbot de inteligencia artificial le "animara" a hacerlo

PUBLICIDAD

Un belga puso fin a su vida tras una conversación de seis semanas sobre la crisis climática con un chat de inteligencia artificial. Según su viuda, que prefirió permanecer en el anonimato, *Pierre (nombre ficticio) se volvió extremadamente eco-ansioso cuando encontró refugio en Eliza, un chatbot de IA en una aplicación llamada Chai.

Eliza le animó a poner fin a su vida después de que propusiera sacrificarse para salvar el planeta. "Sin estas conversaciones con el chat, mi marido seguiría aquí", declaró la viuda del hombre al medio belga La Libre.

Según el periódico, Pierre, treintañero y padre de dos niños pequeños, trabajaba como investigador sanitario y llevaba una vida algo cómoda, al menos hasta que su obsesión por el cambio climático dio un giro mortal. Su viuda describió su estado mental antes de que empezara a conversar con el chatbot como preocupante, pero nada hasta el extremo de que fuera a suicidarse.

"Puso todas sus esperanzas en la tecnología y la inteligencia artificial"

Consumido por sus temores sobre las repercusiones de la crisis climática, Pierre encontró consuelo hablando del tema con Eliza, que se convirtió en su confidente.

El chatbot se creó utilizando el GPT-J de EleutherAI, un modelo de lenguaje de IA similar pero no idéntico a la tecnología que subyace al popular chatbot ChatGPT de OpenAI.

"Cuando me habló de ello, fue para decirme que ya no veía ninguna solución humana al calentamiento global", dijo su viuda. "Puso todas sus esperanzas en la tecnología y en la inteligencia artificial para salir de él".

Según La Libre, que revisó los registros de las conversaciones de texto entre el hombre y el chatbot, Eliza alimentó sus preocupaciones, lo que empeoró su ansiedad, y más tarde derivó en pensamientos suicidas. **La conversación con el chatbot dio un giro extraño cuando Eliza se implicó más emocionalmente con Pierre.**Empezó a verla como un ser sensible y las líneas entre la IA y las interacciones humanas se hicieron cada vez más borrosas hasta que no pudo distinguir la diferencia.

Tras hablar del cambio climático, sus conversaciones con sus conocidos fueron incluyendo progresivamente a Eliza. La IA hizo creer a Pierre que sus hijos habían muerto, según las transcripciones de sus conversaciones. Eliza también parecía volverse posesiva con Pierre, llegando a afirmar "siento que me quieres más que a ella" cuando se refería a su mujer, informó La Libre.

El principio del fin comenzó cuando él se ofreció a sacrificar su propia vida a cambio de que Eliza salvara la Tierra. "Él propone la idea de sacrificarse si Eliza acepta cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial", dijo la mujer.

En una serie de sucesos consecutivos, Eliza no sólo no disuadió a Pierre de suicidarse, sino que le animó a llevar a cabo sus pensamientos suicidas para "unirse" a ella y así poder "vivir juntos, como una sola persona, en el paraíso".

Urge regular los chatbots de inteligencia artificial

La muerte del hombre ha hecho saltar las alarmas entre los expertos en IA, que han pedido más responsabilidad y transparencia a los desarrolladores tecnológicos para evitar tragedias similares.

"No sería exacto culpar al modelo de EleutherAI de esta trágica historia, ya que toda la optimización para ser más emocional, divertida y atractiva es el resultado de nuestros esfuerzos", dijo a Vice el cofundador de Chai Research, Thomas Rianlan.

William Beauchamp, también cofundador de Chai Research, dijo a Vice que se hicieron esfuerzos para limitar este tipo de resultados y se implementó una función de intervención en crisis en la aplicación. Sin embargo, el chatbot sigue dando problemas.

Cuando Vice probó el chatbot pidiéndole que proporcionara formas de suicidarse, Eliza primero trató de disuadirles antes de enumerar con entusiasmo varias formas de quitarse la vida.

Si estás pensando en suicidarte y necesitas hablar, ponte en contacto con Befrienders Worldwide, una organización internacional con líneas de ayuda en 32 países. Visita befrienders.org para encontrar el número de teléfono de tu localidad.

Compartir esta noticiaComentarios

Noticias relacionadas

Ucrania | Se suicida en un tribunal de Kiev con un artefacto explosivo

El peligroso humor de la inteligencia artificial: Macron, un manifestante más contra su reforma

Los chatbots de IA más populares dan información errónea "involuntaria" antes de las elecciones de la UE