Hood
Un alcalde australiano puede convertirse en la primera persona en demandar a los creadores de ChatGPT por las falsas acusaciones que la herramienta hizo sobre el político
ChatGPT es un chatbot basado en inteligencia artificial que ha llamado la atención del mundo entero por su capacidad para generar respuestas instantáneas a tus preguntas, escribir poemas e incluso aprobar exámenes universitarios.
Pero si le preguntas a ChatGPT quién es Brian Hood, el alcalde australiano, afirma falsamente que fue condenado a 30 meses de cárcel por pagar sobornos.
En realidad, Hood nunca fue acusado de ningún delito y, de hecho, fue el denunciante que ayudó a destapar un escándalo internacional de sobornos en el que estaba implicado el Banco Nacional de la Reserva de Australia a principios de la década de 2000.
Cuando Brian Hood fue alertado por sus colegas de estas declaraciones falsas, declaró a Euronews que le causó una angustia extrema, especialmente como funcionario electo
"Me quedé atónito. Estaba realmente conmocionado. No me lo podía creer. Tuve que leerlo y volver a leerlo y mirarlo y hacer otra investigación. No me lo esperaba. Tu reputación, tu integridad, tu prestigio son importantes para todos. Pero cuando estás en ese tipo de puestos, eres aún más consciente de lo que la gente puede pensar", afirma Hood.
El caso es el último ejemplo de una creciente lista de chatbots de IA que publican afirmaciones falsas sobre personas.
Recientemente, un chatbot inventó un falso caso de acoso sexual en el que estaba implicado un profesor de Derecho estadounidense, citando como fuente un artículo del Washington Post que nunca existió.
En su blog público sobre la herramienta, OpenAI afirma que una de sus limitaciones es que "a veces escribe respuestas plausibles pero incorrectas o sin sentido. Solucionar el problema es todo un reto".
Para Brian Hood, esta experiencia ha erosionado su confianza en esta tecnología de inteligencia artificial: "Todo se presenta de una manera que te hace creer que es real y fáctico y digno de confianza. Así que creo que hay que hacer mucho para reforzar la exactitud de estas cosas. Creo que es muy urgente porque realmente pueden dañar la reputación de la gente de forma totalmente falsa o de empresas u organizaciones. Si me puede pasar a mí, le puede pasar a cualquiera".
Los abogados de Brian Hood han enviado una carta de preocupación a la empresa detrás de ChatGPT, OpenAI
Ahora tienen hasta el 18 de abril para responder y corregir estos errores o enfrentarse a una posible demanda por difamación.
The Cube se puso en contacto con OpenAI, pero no respondieron a nuestra solicitud de comentarios.