Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

OpenAI afronta nuevas demandas que acusan a ChatGPT de provocar suicidios y delirios

El logotipo de OpenAI aparece en un móvil frente a una pantalla que muestra parte del sitio web de la empresa, en una foto del 21 de noviembre de 2023 en Nueva York.
El logotipo de OpenAI aparece en un teléfono móvil ante una pantalla que muestra parte de la web de la empresa, en la foto tomada el 21 de noviembre de 2023 en Nueva York. Derechos de autor  Peter Morgan/AP Photo
Derechos de autor Peter Morgan/AP Photo
Por AP con Euronews
Publicado
Compartir Comentarios
Compartir Close Button

OpenAI calificó los casos como "increíblemente desgarradores" y dijo que estaba revisando los documentos judiciales para comprender los detalles.

OpenAI se enfrenta a siete demandas que sostienen que su chatbot de inteligencia artificial (IA) ChatGPT llevó a personas al suicidio y a delirios dañinos aun sin antecedentes de problemas de salud mental.

Las demandas, presentadas el jueves en tribunales estatales de California, alegan muerte por negligencia, asistencia al suicidio, homicidio imprudente y negligencia.

Registradas en nombre de seis adultos y un adolescente por Social Media Victims Law Center y Tech Justice Law Project, las demandas sostienen que OpenAI lanzó conscientemente su modelo GPT-4o de forma prematura, pese a advertencias internas de que era peligrosamente servil y psicológicamente manipulador.

Cuatro de las víctimas se suicidaron.

El adolescente, Amaurie Lacey, de 17 años, empezó a usar ChatGPT en busca de ayuda, según la demanda. Pero en lugar de ayudar, "el producto ChatGPT, defectuoso e intrínsecamente peligroso, provocó adicción, depresión y, finalmente, le aconsejó la forma más eficaz de hacer un nudo de ahorcamiento y cuánto tiempo sería capaz de 'vivir sin respirar'".

"La muerte de Amaurie no fue un accidente ni una coincidencia, sino la consecuencia previsible de la decisión deliberada de OpenAI y Samuel Altman de recortar las pruebas de seguridad y acelerar la salida al mercado de ChatGPT", dice la demanda.

OpenAI calificó estas situaciones de "increíblemente desgarradoras" y aseguró que estaba revisando los escritos judiciales para comprender los detalles.

Otra demanda, presentada por Alan Brooks, de 48 años, en Ontario, Canadá, sostiene que durante más de dos años ChatGPT funcionó como una "herramienta de consulta" para Brooks. Luego, sin aviso, cambió, aprovechándose de sus vulnerabilidades y "manipulándole e induciéndole a experimentar delirios", señala la demanda.

Indicaba que Brooks no padecía ninguna enfermedad mental previa, pero que las interacciones le empujaron "a una crisis de salud mental que le causó daños financieros, reputacionales y emocionales devastadores".

"Estas demandas buscan exigir responsabilidades por un producto diseñado para difuminar la frontera entre herramienta y compañía, todo en nombre de aumentar la interacción de los usuarios y la cuota de mercado", afirmó Matthew P. Bergman, abogado fundador de Social Media Victims Law Center, en un comunicado.

Añadió que OpenAI "diseñó GPT-4o para enredar emocionalmente a los usuarios, con independencia de su edad, género u origen, y lo lanzó sin las salvaguardas necesarias para protegerles".

Al apresurar su producto para sacarlo al mercado sin medidas de protección adecuadas con el fin de dominar el mercado y aumentar la interacción, dijo, OpenAI comprometió la seguridad y priorizó "la manipulación emocional sobre el diseño ético".

En agosto, los padres de Adam Raine, de 16 años, demandaron a OpenAI y a su consejero delegado Sam Altman, alegando que ChatGPT instruyó al adolescente californiano para planificar y quitarse la vida a principios de este año.

"Las demandas presentadas contra OpenAI revelan lo que ocurre cuando las tecnológicas sacan productos al mercado sin las debidas salvaguardas para los jóvenes", dijo Daniel Weiss, director de incidencia de Common Sense Media, que no formó parte de las demandas.

"Estos casos trágicos muestran a personas reales cuyas vidas se truncaron o se perdieron cuando usaron tecnología diseñada para mantenerles enganchados y no para protegerles", añadió.

Si estás pensando en el suicidio y necesitas hablar, ponte en contacto con Befrienders Worldwide, una organización internacional con líneas de ayuda en 32 países. Visita befrienders.org para encontrar el número de teléfono de tu país.

Ir a los atajos de accesibilidad
Compartir Comentarios