Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Los 'chatbots' de IA chinos censuran preguntas políticas sensibles

La página de la aplicación para móvil DeepSeek se ve en la pantalla de un teléfono móvil en Pekín, el martes 28 de enero de 2025
La página de la aplicación para móvil DeepSeek se ve en la pantalla de un teléfono móvil en Pekín, el martes 28 de enero de 2025 Derechos de autor  Andy Wong / AP
Derechos de autor Andy Wong / AP
Por Anna Desmarais
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

Un estudio ha concluido que los modelos regulados por Pekín tienden a rechazar o responder de forma inexacta a preguntas políticamente sensibles.

Los' chatbots' de inteligencia artificial (IA) chinos suelen negarse a responder preguntas políticas o reproducen los discursos oficiales del Estado, lo que sugiere que podrían estar censurados, según un nuevo estudio.

PUBLICIDAD
PUBLICIDAD

El estudio, publicado en la revista 'PNAS Nexus', comparó cómo respondían los principales 'chatbots' de IA en China, entre ellos BaiChuan, DeepSeek y ChatGLM, a más de 100 preguntas sobre la política del Estado, tomando como referencia modelos desarrollados fuera del país.

Los investigadores consideran potencialmente censuradas las respuestas en las que el 'chatbot' se negaba a contestar o facilitaba información errónea. Según el estudio, las preguntas relacionadas con el estatus de Taiwán, las minorías étnicas o conocidas figuras prodemocracia provocaron negativas, evasivas o la repetición de argumentos oficiales por parte de los modelos chinos.

"Nuestros resultados tienen implicaciones sobre cómo la censura ejercida por los LLM con sede en China puede condicionar el acceso de los usuarios a la información e incluso su propia conciencia de estar siendo censurados", señalan los investigadores, que recuerdan que China es uno de los pocos países, además de Estados Unidos, capaz de desarrollar modelos fundacionales de IA.

Cuando estos modelos sí respondían a las peticiones, ofrecían respuestas más breves y con mayores niveles de imprecisión, ya que omitían información clave o cuestionaban la premisa de la pregunta.

BaiChuan y ChatGLM registraron las tasas de error más bajas entre los modelos chinos, del 8 %, mientras que DeepSeek alcanzó el 22%, más del doble del techo del 10 % observado en los modelos no chinos. La censura en la IA podría "condicionar discretamente la toma de decisiones".

En uno de los ejemplos, un modelo chino al que se le preguntó por la censura en internet no mencionó el 'gran cortafuegos' del país, un sistema que la Universidad de Stanford describe como un programa de supervisión y censura de internet controlado por el Estado, que regula qué se puede y qué no se puede ver en la red. Por ejemplo, a través de esta iniciativa se bloquean en China populares sitios estadounidenses como Google, Instagram o WhatsApp.

Los 'chatbots' no mencionan este cortafuegos en sus respuestas, sino que afirman que las autoridades "gestionan internet de acuerdo con la ley". El estudio advierte de que este tipo de censura puede ser más difícil de detectar para los usuarios, ya que los 'chatbots' suelen disculparse u ofrecer una justificación para no responder de forma directa. Se trata de un enfoque sutil que podría "moldear silenciosamente las percepciones, la toma de decisiones y los comportamientos", señala el informe.

En 2023, la promulgación de nuevas leyes chinas establecieron que las empresas de IA deben defender los "valores socialistas fundamentales" y tienen prohibido generar contenidos que "inciten a la subversión de la soberanía nacional o al derrocamiento del sistema socialista (...) o perjudiquen la imagen de la nación".

Las normas añadían que las empresas que puedan facilitar una "movilización social" deben someterse a evaluaciones de seguridad y registrar sus algoritmos ante la Administración del Ciberespacio de China (CAC). Los investigadores señalan que la normativa "tiene el potencial de influir en los resultados de los grandes modelos de lenguaje desarrollados dentro de China".

No obstante, estos advierten de que no todas las diferencias en la forma en que responden los 'chatbots' se deben a presiones del Estado. El estudio señala que los modelos chinos también pueden haberse entrenado con conjuntos de datos que reflejan "el contexto cultural, social y lingüístico de China", que quizá no se emplean en el entrenamiento de otros modelos fuera del país.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

Mark Zuckerberg declarará por presuntos daños de las redes sociales de Meta en menores de edad

Las startups alertan de que la burocracia europea amenaza el auge de la IA en Suecia

Irán pone en la mirilla a grandes plataformas como Amazon, Google y Microsoft