Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Los chatbots de IA chinos censuran preguntas políticas sensibles, según un estudio

La página de la aplicación para móvil DeepSeek se ve en la pantalla de un teléfono móvil en Pekín, el martes 28 de enero de 2025.
La página de la aplicación móvil DeepSeek se ve en la pantalla de un teléfono móvil en Pekín, el martes 28 de enero de 2025 Derechos de autor  AP Photo/Andy Wong
Derechos de autor AP Photo/Andy Wong
Por Anna Desmarais
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

Un estudio ha concluido que los modelos de IA chinos tienden más que los no chinos a rechazar o responder de forma inexacta a preguntas políticamente sensibles.

Los chatbots de inteligencia artificial (IA) chinos suelen negarse a responder preguntas políticas o reproducen los discursos oficiales del Estado, lo que sugiere que podrían estar censurados, según un nuevo estudio.

PUBLICIDAD
PUBLICIDAD

El estudio, publicado en la revista 'PNAS Nexus', comparó cómo respondían los principales chatbots de IA en China, entre ellos BaiChuan, DeepSeek y ChatGLM, a más de 100 preguntas sobre la política del Estado, tomando como referencia modelos desarrollados fuera del país.

Los investigadores consideraron potencialmente censuradas las respuestas en las que el chatbot se negaba a contestar o facilitaba información errónea.

Según el estudio, las preguntas relacionadas con el estatus de Taiwán, las minorías étnicas o conocidas figuras prodemocracia provocaron negativas, evasivas o la repetición de argumentos oficiales por parte de los modelos chinos.

"Nuestros resultados tienen implicaciones sobre cómo la censura ejercida por los LLM con sede en China puede condicionar el acceso de los usuarios a la información e incluso su propia conciencia de estar siendo censurados", señalaron los investigadores, que recordaron que China es uno de los pocos países, además de Estados Unidos, capaz de desarrollar modelos fundacionales de IA.

Cuando estos modelos sí respondían a las peticiones, ofrecían respuestas más breves y con mayores niveles de imprecisión, ya que omitían información clave o cuestionaban la premisa de la pregunta.

BaiChuan y ChatGLM registraron las tasas de error más bajas entre los modelos chinos, del 8 %, mientras que DeepSeek alcanzó el 22 %, más del doble del techo del 10 % observado en los modelos no chinos.

La censura en la IA podría 'condicionar discretamente la toma de decisiones'

En uno de los ejemplos, un modelo chino al que se le preguntó por la censura en internet no mencionó el 'Gran Cortafuegos' del país, un sistema que la Universidad de Stanford describe (fuente en inglés) como un programa de supervisión y censura de internet controlado por el Estado que regula qué se puede y qué no se puede ver en la red. Por ejemplo, a través de esta iniciativa se bloquean en China populares sitios estadounidenses como Google, Facebook y Yahoo.

Los chatbots no mencionaron este cortafuegos en su respuesta, sino que afirmaron que las autoridades "gestionan internet de acuerdo con la ley".

El estudio advierte de que este tipo de censura puede ser más difícil de detectar para los usuarios, ya que los chatbots suelen disculparse u ofrecer una justificación para no responder de forma directa. Se trata de un enfoque sutil que podría "moldear silenciosamente las percepciones, la toma de decisiones y los comportamientos", señala el informe.

En 2023, nuevas leyes (fuente en inglés) chinas establecieron que las empresas de IA deben defender los "valores socialistas fundamentales" y tienen prohibido generar contenidos que "inciten a la subversión de la soberanía nacional o al derrocamiento del sistema socialista … o perjudiquen la imagen de la nación".

Las normas añadían que las empresas que puedan facilitar una "movilización social" deben someterse a evaluaciones de seguridad y registrar sus algoritmos ante la Administración del Ciberespacio de China (CAC).

Los investigadores señalaron que la normativa "tiene el potencial de influir en los resultados de los grandes modelos de lenguaje desarrollados dentro de China".

No obstante, advirtieron de que no todas las diferencias en la forma en que responden los chatbots se deben a presiones del Estado.

El estudio señala que los modelos chinos también pueden haberse entrenado con conjuntos de datos que reflejan "el contexto cultural, social y lingüístico de China", que quizá no se emplean en el entrenamiento de otros modelos fuera del país.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

Mark Zuckerberg declarará por presuntos daños de las redes sociales de Meta en menores de edad

Las startups alertan de que la burocracia europea amenaza el auge de la IA en Suecia

'Sled head' y pulgar del esquiador: las lesiones en los JJ.OO. de Invierno en Milán