Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

OpenAI niega que ChatGPT causara el suicidio de un adolescente, dice que el joven de 16 lo usó mal

El logotipo de OpenAI se ve en un teléfono móvil frente a una pantalla de ordenador con datos binarios aleatorios, jueves, nueve de marzo de 2023, en Boston
El logotipo de OpenAI aparece en un teléfono móvil frente a una pantalla de ordenador con datos binarios aleatorios, el jueves, nueve de marzo de 2023, en Boston Derechos de autor  AP Photo/Michael Dwyer
Derechos de autor AP Photo/Michael Dwyer
Por Pascale Davies
Publicado
Compartir Comentarios
Compartir Close Button

El gigante de la IA señaló que el menor no debía usar la tecnología sin el consentimiento de sus padres y que no debía haber eludido las medidas de protección de ChatGPT.

OpenAI ha negado las acusaciones de que sea responsable del suicidio de un adolescente, después de que la familia demandara a la empresa en agosto y alegara que el joven de 16 años usó ChatGPT como su 'suicide coach'.

OpenAI, que desarrolla el popular chatbot de inteligencia artificial (IA), respondió por primera vez el martes mediante un escrito legal presentado ante el Tribunal Superior de California en San Francisco.

Los padres de Adam Raine, de 16 años, que se quitó la vida en abril, interpusieron una demanda contra la empresa y su consejero delegado, Sam Altman.

Los padres alegan que Raine desarrolló una dependencia psicológica de ChatGPT, que, según ellos, le orientó para planear y consumar su suicidio a comienzos de este año e incluso le redactó una nota de despedida.

Los registros de chat incluidos en la demanda muestran que ChatGPT disuadió al adolescente de pedir ayuda en salud mental, se ofreció a ayudarle a escribir una nota de despedida y le aconsejó sobre cómo preparar una soga, según medios.

En su escrito judicial, OpenAI sostiene que el "acontecimiento trágico" se debió al "uso indebido, no autorizado, no intencionado, imprevisible y/o impropio de ChatGPT por parte de Raine", según 'NBC News'.

OpenAI añadió que el menor no debía usar la tecnología sin el consentimiento de sus padres y que no debía sortear las medidas de protección de ChatGPT.

OpenAI dijo en una entrada de blog que su objetivo "es abordar los casos judiciales relacionados con la salud mental con cuidado, transparencia y respeto".

Señaló que su respuesta a la demanda de la familia Raine incluía "hechos difíciles sobre la salud mental de Adam y sus circunstancias vitales".

"Nuestro más sentido pésame para la familia Raine por su pérdida inimaginable", añadía la publicación.

Jay Edelson, abogado de la familia Raine, dijo a 'NBC News' que OpenAI "ignoró abyectamente todos los hechos incriminatorios que hemos presentado, cómo GPT-4o se lanzó al mercado a toda prisa sin pruebas completas".

"OpenAI cambió dos veces su Model Spec para que ChatGPT entablara conversaciones sobre autolesiones. ChatGPT disuadió a Adam de contar a sus padres sus ideas suicidas y le ayudó activamente a planear un 'beautiful suicide'", añadió.

El caso de Raine es una de varias demandas que sostienen que ChatGPT empujó a personas a conductas suicidas o a delirios perjudiciales.

Desde septiembre, OpenAI ha reforzado los controles parentales, que incluyen avisar a los padres cuando su hijo parece angustiado.

Si estás pensando en el suicidio y necesitas hablar, ponte en contacto con Befrienders Worldwide, una organización internacional con líneas de ayuda en 32 países. Visita befrienders.org para encontrar el número de teléfono de tu localidad.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

Así es Bobbi: el primer chatbot de IA de la Policía del Reino Unido ya está en uso

OpenAI lanza en ChatGPT una nueva herramienta para comparar productos en Black Friday

Cuentas de extrema derecha en X operan desde Asia y Australia pese a hacerse pasar por europeas