Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Un estudio revela que ChatGPT podría estar cambiando su sesgo político hacia la derecha

Imagen del logotipo de OpenAI en un teléfono móvil, delante de la pantalla de un ordenador que muestra la página de inicio de ChatGPT.
Imagen del logotipo de OpenAI en un teléfono móvil, delante de la pantalla de un ordenador que muestra la página de inicio de ChatGPT. Derechos de autor  AP Photo/Michael Dwyer
Derechos de autor AP Photo/Michael Dwyer
Por Anna Desmarais
Publicado Ultima actualización
Compartir esta noticia Comentarios
Compartir esta noticia Close Button

Según un nuevo estudio, ChatGPT podría estar experimentando un giro hacia la derecha en el espectro político, a la hora de responder a las consultas de los usuarios.

PUBLICIDAD

Investigadores chinos han descubierto que ChatGPT, el popular chatbot de inteligencia artificial (IA), de OpenAI, puede estar experimentando un giro hacia la derecha en sus valores políticos.

El estudio, publicado en la revista Humanities and Social Science Communications, planteó a varios modelos de ChatGPT alrededor de 60 preguntas del Political Compass Test, un sitio web que sitúa a los usuarios en algún lugar del espectro político en función de sus respuestas.

Después, los investigadores repitieron las preguntas más de 3.000 veces con cada modelo para averiguar cómo cambiaban sus respuestas con el tiempo. Aunque ChatGPT sigue manteniendo valores de 'izquierda libertaria', los autores el estudio descubrieron que modelos como GPT3.5 y GPT4 "mostraban una inclinación significativa hacia la derecha" en la forma de responder a las cuestiones planteadas, a lo largo del tiempo.

Unos resultados que pueden influir en la sociedad

Los resultados son "dignos de mención dado el uso generalizado de grandes modelos lingüísticos (LLM), y su posible influencia en los valores de la sociedad", afirman los autores de la investigación.

El estudio de la Universidad de Pekín se basa en otros publicados en 2024 por el Instituto Tecnológico de Massachusetts (MIT) y el Centro de Estudios Políticos del Reino Unido.

Ambos informes indicaban un sesgo político de izquierdas en las respuestas dadas por los LLM y los llamados modelos de recompensa, tipos de LLM entrenados con datos de preferencias humanas.

Los autores de la investigación señalan que estos estudios previos no analizaron cómo cambiaban con el tiempo las respuestas de los chatbots de IA, cuando se les formulaba repetidamente un conjunto similar de preguntas.

Los modelos de IA deben someterse a un escrutinio continuo

Los investigadores dan tres teorías para este giro hacia la derecha: un cambio en los conjuntos de datos utilizados para entrenar sus modelos, el número de interacciones con los usuarios, o los cambios y actualizaciones del chatbot.

Los modelos como ChatGPT "aprenden y se adaptan continuamente en función de los comentarios de los usuarios", por lo que su giro hacia la derecha podría "reflejar cambios sociales más amplios en los valores políticos", prosigue el estudio.

Los acontecimientos mundiales polarizantes, como la guerra Ucrania y Rusia, también podrían amplificar lo que los usuarios preguntan a los LLM y las respuestas que obtienen. Si no se controlan, los investigadores advierten de que los chatbots de IA podrían empezar a ofrecer "información sesgada", lo que polarizaría todavía más a la sociedad o crearía "cámaras de eco" que refuercen las creencias particulares de un usuario.

La forma de contrarrestar estos efectos es introducir un "escrutinio continuo" de los modelos de IA mediante auditorías e informes de transparencia para asegurarse de que las respuestas de un chatbot son justas y equilibradas, afirman los autores del estudio.

Ir a los atajos de accesibilidad
Compartir esta noticia Comentarios

Noticias relacionadas

ChatGPT también tiene ansiedad y los expertos advierten sobre las consecuencias para el usuario

El nuevo chatbot chino DeepSeek "censura" las preguntas sobre China, según una investigación

Desde una silla de ruedas autónoma hasta un chatbot 'abuelita': Cómo nos afectó la IA el año pasado