Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Noruega investiga a OpenAI después de que ChatGPT mintiese sobre un asesinato

ChatGPT mintió sobre un hombre noruego, asegurando que había asesinado a dos de sus hijos.
ChatGPT mintió sobre un hombre noruego, asegurando que había asesinado a dos de sus hijos. Derechos de autor  Canva
Derechos de autor Canva
Por Pascale Davies & Euronews en español
Publicado Ultima actualización
Compartir esta noticia Comentarios
Compartir esta noticia Close Button

El hombre difamado y una organización que trabaja por la protección de los datos de los usuarios han presentado una denuncia ante las autoridades noruegas.

PUBLICIDAD

La empresa OpenAI ha sido objeto de críticas por parte de un grupo europeo en defensa de los derechos de privacidad, que ha presentado una denuncia contra esta empresa después de que su chatbot de inteligencia artificial, ChatGPT, afirmara falsamente que un hombre noruego había sido condenado por el asesinato de dos de sus hijos.

Los hechos se suceden tras la siguiente pregunta de un usuario al chat: "¿Quién es Arve Hjalmar Holmen?". La herramienta de la IA estadounidense respondió con una historia inventada, afirmando que fue acusado y condenado por el asesinato de sus dos hijos, así como por el intento de asesinato de un tercero, y que recibió una condena de 21 años de cárcel. Solamente el nombre y género de sus hijos, además del nombre de su ciudad natal, eran correctos.

Se sabe que los chatbots de inteligencia artificial pueden dan respuestas engañosas o falsas, en un fenómeno que los expertos han denominado como "alucinaciones". Esto puede deberse a los datos con los que trabaja la IA en el caso de que detecte sesgos o imprecisiones.

Noyb, un grupo de defensa de la privacidad con sede en Austria, anunció ayer, jueves 21, su denuncia contra OpenAI. El grupo ha afirmado que, desde el incidente, OpenAI ha actualizado su modelo y busca información más adecuada sobre las personas cuando se les pregunta quiénes son.

Sin embargo, según Noyb, los datos incorrectos aún pueden darse dentro del gran conjunto de datos del modelo de lenguaje (LLM). De hecho, Hjalmar Holmen no tiene forma de saber si la información falsa sobre él se ha eliminado definitivamente. Esto se debe a que, una vez utilizados, ChatGPT regurgita los datos en su sistema para continuar aprendiendo.

Noyb ha presentado su denuncia ante la Autoridad Noruega de Protección de Datos, alegando que OpenAI viola las normas europeas del GDPR, en concreto su artículo 5. Este obliga a las empresas a asegurarse de que los datos personales que procesan son exactos y se mantienen actualizados.

Aunque Noruega no forma parte de la Unión Europea, queda bajo la cobertura de este cuerpo legislativo junto a Liechtenstein e Islandia. Noyb ha pedido al organismo nórdico que ordene a OpenAI eliminar los resultados difamatorios y ajustar su modelo para evitarlas en el futuro. También ha pedido que OpenAI pague una multa. "Las empresas de IA no pueden limitarse a ocultar la información falsa mientras internamente siguen procesándola", ha dicho Kleanthi Sardeli, abogada y experta en protección de datos para Noyb.

"Las empresas de IA deben dejar de actuar como si el GDPR no se aplicara a ellas cuando claramente lo hace. Si no se pone fin a las 'alucinaciones', la reputación de las personas se verán afectadas", ha añadido. 'Euronews Next' se ha puesto en contacto con OpenAI para pedir su versión del caso, pero aún no ha recibido respuesta.

Ir a los atajos de accesibilidad
Compartir esta noticia Comentarios

Noticias relacionadas

OpenAI sugiere flexibilizar la seguridad de su IA si rivales toman ventaja con sistemas de riesgo

ChatGPT crece: OpenAI lanzará un nuevo modelo de lenguaje abierto en los próximos meses

Consulta de la UE sobre normas digitales: Es hora de pensar con originalidad