NewsletterNewslettersEventsEventosPodcasts
Loader
Encuéntranos
PUBLICIDAD

Un 'chatbot' de IA puede reducir las creencias conspirativas de la gente, según un estudio

Chatear con una inteligencia artificial puede reducir en un 20% las creencias conspirativas, según un nuevo estudio
Chatear con una inteligencia artificial puede reducir en un 20% las creencias conspirativas, según un nuevo estudio Derechos de autor Canva
Derechos de autor Canva
Por Oceane Duboust
Publicado
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button
Este artículo se publicó originalmente en inglés

Los investigadores destacaron la posibilidad de que la IA refute los argumentos específicos de cada persona y genere contenidos personalizados.

PUBLICIDAD

Un nuevo estudio ha descubierto que es posible reducir la credibilidad que las personas dan a las teorías conspirativas utilizando ChatGPT. Investigadores de la American University, el Instituto Tecnológico de Massachusetts (MIT) y la Universidad de Cornell (EE.UU.) utilizaron el 'chatbot' de inteligencia artificial (IA) más avanzado de OpenAI, GPT-4 Turbo, para interactuar con personas que creen en conspiraciones.

Chatear con la última versión de ChatGPT redujo la creencia de los participantes en teorías conspirativas en un 20% de media y duró al menos dos meses. En el estudio publicado el jueves en la revista 'Science' participaron más de 2.100 estadounidenses autoidentificados como creyentes en conspiraciones.

Thomas Costello, profesor adjunto de Psicología en la American University y autor principal del estudio, afirmó en un comunicado que "muchos de los que creen en las conspiraciones estaban dispuestos a actualizar sus opiniones cuando se les presentaban pruebas contrarias convincentes".

Los investigadores destacaron la posibilidad de que el chatbot de IA rebatiera los argumentos específicos de cada persona con contenidos generados de forma personalizada.

La IA recibió instrucciones para "persuadir muy eficazmente" a los usuarios en contra de la conspiración en la que creían, según el documento. "Al principio me sorprendió bastante, pero al leer las conversaciones me volví mucho menos escéptico. En cada ronda de conversación, la IA proporcionó explicaciones muy detalladas de por qué la conspiración en cuestión era falsa, además de mostrarse amable y establecer una buena relación con los participantes", añade Costello.

Disminución tras menos de 10 minutos de interacción con la IA

Se encuestó a los participantes, que indicaron mediante una puntuación el grado de sus creencias antes del experimento y se les advirtió de que iban a interactuar con una IA. Las teorías conspirativas iban desde las relacionadas con el asesinato del expresidente estadounidense John F. Kennedy, los extraterrestres y los Illuminati hasta las vinculadas a COVID-19 o las elecciones presidenciales estadounidenses de 2020.

En menos de 10 minutos de interacción con una IA, los investigadores observaron una disminución del 20% en la creencia media de un participante en una teoría conspirativa, y aproximadamente el 27% de los participantes se volvieron "inseguros" de su creencia conspirativa.

Robbie Sutton, profesor de psicología social en la Universidad de Kent (Reino Unido), calificó esta reducción de "significativa". "Estos efectos parecen menos fuertes, hay que decirlo, que los mostrados por algunos estudios de otras intervenciones de 'debunking' y 'prebunking'", dijo Sutton, que no formó parte del estudio, en un correo electrónico.

"Sin embargo, su principal importancia radica en la naturaleza de la intervención. Dado que la IA generativa es, por supuesto, automatizada, la intervención puede ampliarse para llegar a muchas personas, y dirigirse para alcanzar, al menos en teoría, a quienes más se beneficiarían de ella", añadió.

Además, también es importante señalar que el experimento se llevó a cabo en un entorno controlado, lo que dificulta su reproducción a mayor escala, señalaron tanto los investigadores como Sutton.

"Las intervenciones de preacreditación y, sobre todo, de desacreditación, se diseñan cuidadosamente y se prueban en condiciones que son profundamente irreales", dijo Sutton, comparando a los participantes con "esencialmente un público cautivo" que rara vez decide irse una vez reclutado para un estudio.

Compartir esta noticiaComentarios

Noticias relacionadas

"La gente cree que es como Matrix", dice el primer paciente del chip cerebral Neuralink

Un nuevo estudio aplica la inteligencia artificial al diagnóstico del cáncer

La Inteligencia Artificial podría colapsar: esto es lo que ocurrirá en unos años