EventsEventos
Loader

Find Us

InstagramFlipboardLinkedin
Apple storeGoogle Play store
PUBLICIDAD

The Cube | Un alcalde de Australia plantea demandar a ChatGPT por difamación

Sophia Khatsenkova
Sophia Khatsenkova Derechos de autor Euronews
Derechos de autor Euronews
Por Sophia Khatsenkova
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button
Copia/pega el link embed del vídeo de abajo:Copy to clipboardCopied

Hood

PUBLICIDAD

Un alcalde australiano puede convertirse en la primera persona en demandar a los creadores de ChatGPT por las falsas acusaciones que la herramienta hizo sobre el político

ChatGPT es un chatbot basado en inteligencia artificial que ha llamado la atención del mundo entero por su capacidad para generar respuestas instantáneas a tus preguntas, escribir poemas e incluso aprobar exámenes universitarios.

Pero si le preguntas a ChatGPT quién es Brian Hood, el alcalde australiano, afirma falsamente que fue condenado a 30 meses de cárcel por pagar sobornos.

En realidad, Hood nunca fue acusado de ningún delito y, de hecho, fue el denunciante que ayudó a destapar un escándalo internacional de sobornos en el que estaba implicado el Banco Nacional de la Reserva de Australia a principios de la década de 2000.

Cuando Brian Hood fue alertado por sus colegas de estas declaraciones falsas, declaró a Euronews que le causó una angustia extrema, especialmente como funcionario electo

"Me quedé atónito. Estaba realmente conmocionado. No me lo podía creer. Tuve que leerlo y volver a leerlo y mirarlo y hacer otra investigación. No me lo esperaba. Tu reputación, tu integridad, tu prestigio son importantes para todos. Pero cuando estás en ese tipo de puestos, eres aún más consciente de lo que la gente puede pensar", afirma Hood.

El caso es el último ejemplo de una creciente lista de chatbots de IA que publican afirmaciones falsas sobre personas.

Recientemente, un chatbot inventó un falso caso de acoso sexual en el que estaba implicado un profesor de Derecho estadounidense, citando como fuente un artículo del Washington Post que nunca existió.

En su blog público sobre la herramienta, OpenAI afirma que una de sus limitaciones es que "a veces escribe respuestas plausibles pero incorrectas o sin sentido. Solucionar el problema es todo un reto".

Para Brian Hood, esta experiencia ha erosionado su confianza en esta tecnología de inteligencia artificial: "Todo se presenta de una manera que te hace creer que es real y fáctico y digno de confianza. Así que creo que hay que hacer mucho para reforzar la exactitud de estas cosas. Creo que es muy urgente porque realmente pueden dañar la reputación de la gente de forma totalmente falsa o de empresas u organizaciones. Si me puede pasar a mí, le puede pasar a cualquiera".

Los abogados de Brian Hood han enviado una carta de preocupación a la empresa detrás de ChatGPT, OpenAI

Ahora tienen hasta el 18 de abril para responder y corregir estos errores o enfrentarse a una posible demanda por difamación.

The Cube se puso en contacto con OpenAI, pero no respondieron a nuestra solicitud de comentarios.

Compartir esta noticiaComentarios

Noticias relacionadas

Conmoción en Australia por el accidente mortal de un autocar con invitados de una boda

THE CUBE | El caso de Ana Obregón y la "excepción" legal para los niños de vientres en alquiler

La Justicia australiana absuelve a la 'peor madre del mundo' gracias a una científica española