El gigante de la IA señaló que el menor no debía usar la tecnología sin el consentimiento de sus padres y que no debía haber eludido las medidas de protección de ChatGPT.
OpenAI ha negado las acusaciones de que sea responsable del suicidio de un adolescente, después de que la familia demandara a la empresa en agosto y alegara que el joven de 16 años usó ChatGPT como su 'suicide coach'.
OpenAI, que desarrolla el popular chatbot de inteligencia artificial (IA), respondió por primera vez el martes mediante un escrito legal presentado ante el Tribunal Superior de California en San Francisco.
Los padres de Adam Raine, de 16 años, que se quitó la vida en abril, interpusieron una demanda contra la empresa y su consejero delegado, Sam Altman.
Los padres alegan que Raine desarrolló una dependencia psicológica de ChatGPT, que, según ellos, le orientó para planear y consumar su suicidio a comienzos de este año e incluso le redactó una nota de despedida.
Los registros de chat incluidos en la demanda muestran que ChatGPT disuadió al adolescente de pedir ayuda en salud mental, se ofreció a ayudarle a escribir una nota de despedida y le aconsejó sobre cómo preparar una soga, según medios.
En su escrito judicial, OpenAI sostiene que el "acontecimiento trágico" se debió al "uso indebido, no autorizado, no intencionado, imprevisible y/o impropio de ChatGPT por parte de Raine", según 'NBC News'.
OpenAI añadió que el menor no debía usar la tecnología sin el consentimiento de sus padres y que no debía sortear las medidas de protección de ChatGPT.
OpenAI dijo en una entrada de blog que su objetivo "es abordar los casos judiciales relacionados con la salud mental con cuidado, transparencia y respeto".
Señaló que su respuesta a la demanda de la familia Raine incluía "hechos difíciles sobre la salud mental de Adam y sus circunstancias vitales".
"Nuestro más sentido pésame para la familia Raine por su pérdida inimaginable", añadía la publicación.
Jay Edelson, abogado de la familia Raine, dijo a 'NBC News' que OpenAI "ignoró abyectamente todos los hechos incriminatorios que hemos presentado, cómo GPT-4o se lanzó al mercado a toda prisa sin pruebas completas".
"OpenAI cambió dos veces su Model Spec para que ChatGPT entablara conversaciones sobre autolesiones. ChatGPT disuadió a Adam de contar a sus padres sus ideas suicidas y le ayudó activamente a planear un 'beautiful suicide'", añadió.
El caso de Raine es una de varias demandas que sostienen que ChatGPT empujó a personas a conductas suicidas o a delirios perjudiciales.
Desde septiembre, OpenAI ha reforzado los controles parentales, que incluyen avisar a los padres cuando su hijo parece angustiado.
Si estás pensando en el suicidio y necesitas hablar, ponte en contacto con Befrienders Worldwide, una organización internacional con líneas de ayuda en 32 países. Visita befrienders.org para encontrar el número de teléfono de tu localidad.