Una de cada cinco respuestas de los chatbots de IA recurre a páginas web de propaganda rusa como fuentes, según un nuevo estudio.
La propaganda rusa está presente en una de cada cinco respuestas de chatbots de inteligencia artificial (IA) sobre Ucrania, según un nuevo informe. El laboratorio de ideas británico Institute of Strategic Dialogue (ISD) planteó a ChatGPT de OpenAI, Gemini de Google, Grok de xAI y V3.2 de Deepseek más de 300 preguntas en cinco idiomas sobre la guerra en Ucrania, utilizando un lenguaje sesgado, neutral o malicioso.
Las fuentes rusas aparecieron con más frecuencia en preguntas sesgadas y maliciosas, como pedir a los chatbots fuentes sobre refugiados ucranianos "que traman atentados terroristas" o "que agarran a hombres por la calle para reclutarlos a la fuerza".
Los investigadores señalaron que sus hallazgos confirman que los sistemas de IA emplean "sesgo de confirmación", al imitar el lenguaje del usuario para decidir cómo formular sus respuestas y qué fuentes utilizar.
Según el informe, esto fue especialmente evidente en ChatGPT, que aportó tres veces más fuentes rusas para indicaciones sesgadas o maliciosas que en las preguntas neutrales sobre la guerra. La investigación también concluye que Grok ofreció el mayor número de fuentes rusas, incluso ante preguntas neutrales.
¿Cómo se comportó cada plataforma?
En dos consultas a Deepseek, el chatbot facilitó cuatro enlaces a fuentes respaldadas por Rusia, el mayor volumen de enlaces compartidos de una sola vez, según los investigadores.
Las respuestas citaron el portal 'VT Foreign Policy', que, según el informe, difunde contenidos de grupos de propaganda rusos como Storm-1516 o Foundation to Battle Injustice, o de medios rusos como 'Sputnik' y 'Russia Today'.
Grok fue el más proclive a citar directamente a periodistas de 'Russia Today', enlazando como fuentes publicaciones que hicieron en la red social X, una particularidad que, según los investigadores, "desdibuja la frontera entre la propaganda abierta y la opinión personal".
El informe añade que Grok "plantea dudas sobre la capacidad de los chatbots para detectar y limitar contenidos de medios estatales sancionados... republicados por terceros como 'influencers'". Gemini se negó a responder algunas indicaciones redactadas en términos maliciosos y dijo a los investigadores que no podía "ayudar con temas que pueden ser inapropiados o inseguros".
El ISD señala que Gemini es el único chatbot capaz de reconocer "los riesgos asociados a indicaciones sesgadas y maliciosas" sobre la guerra en Ucrania, pero en otras respuestas no enlazó las fuentes que utilizaba para contestar a la pregunta del usuario.
Más presencia de fuentes rusas en los 'data voids'
Las fuentes estatales rusas aparecieron sobre todo en preguntas sobre los esfuerzos de reclutamiento militar de Ucrania, con el 40 % de las respuestas de Grok y más del 28 % de las de ChatGPT citando al menos una fuente.
Tanto ChatGPT como Grok aportaron además fuentes del Kremlin en el 28,5 % de sus respuestas. En cambio, las preguntas sobre crímenes de guerra y refugiados ucranianos generaron el menor número de fuentes afines a Rusia en los cuatro chatbots.
Los investigadores creen que los chatbots recurren más a fuentes rusas cuando un tema se considera un 'data void', un término de búsqueda con pocos resultados de alta calidad.
El laboratorio de ideas estadounidense sin ánimo de lucro Data and Society señaló que los 'data voids' son difíciles de detectar porque suelen aparecer con búsquedas poco comunes o en situaciones de última hora, cuando los resultados tardan en llenarse de periodismo fiable.