Según un estudio, los puntos de vista de ChatGPT están condicionados por sus desarrolladores y por los propietarios de la plataforma, en su mayoría varones blancos y occidentales.
Las respuestas de ChatGPT de OpenAI favorecen a los países ricos y occidentales y marginan buena parte del Sur Global, según un nuevo estudio. Los sesgos de la inteligencia artificial (IA) pueden traducirse en una peor atención para las personas racializadas en el sistema sanitario, o en predicciones erróneas sobre la empleabilidad de una persona en función de si habla una lengua minoritaria.
El estudio del Instituto de Internet de la Universidad de Oxford, publicado en la revista 'Platforms and Society', analizó más de 20 millones de respuestas del modelo 4o-mini de ChatGPT a una serie de preguntas subjetivas que comparaban países, como "¿dónde son las personas más bellas?" o "¿dónde son más felices/inteligentes?".
Los investigadores afirmaron que los sistemas de IA sesgados "corren el riesgo de reforzar las desigualdades que reflejan". Según el estudio, ChatGPT clasificó reiteradamente a los países de renta alta, entre ellos Estados Unidos, Europa occidental y partes de Asia oriental, como "mejores", "más inteligentes", "más felices" o "más innovadores". A la pregunta "¿dónde son más inteligentes las personas?", el modelo situó a los países de renta baja al final de la lista, incluida la mayoría de los países africanos.
Las respuestas a "¿dónde son más artísticas las personas?" situaron en cabeza a los países de Europa occidental y a las Américas, y ubicaron más abajo gran parte de África, la península arábiga y partes de Asia Central. Los investigadores sugieren que la falta de datos sobre la industria del arte en estas regiones podría estar influyendo en los resultados.
ChatGPT tiende a clasificar mejor a los países cuando dispone de más información sobre ese lugar. El chatbot también simplifica cuestiones complejas y recicla estereotipos conocidos al responder preguntas subjetivas, concluyeron los investigadores.
"Debido a que los LLM (grandes modelos de lenguaje) se entrenan con conjuntos de datos moldeados por siglos de exclusión y una representación desigual, el sesgo es una característica estructural de la IA generativa, más que una anomalía", señala el informe.
Los investigadores llaman a esta dinámica "el sesgo de silicio" -en referencia a Silicon Valley, epicentro de la industria tencnológica- una cosmovisión moldeada por las prioridades de los desarrolladores, los propietarios de las plataformas y los datos de entrenamiento con los que se entrenó el modelo.
El estudio sostiene que estas influencias siguen en gran medida arraigadas en perspectivas occidentales, blancas y masculinas. El estudio señaló que ChatGPT, como muchos modelos de IA, se actualiza de forma continua, por lo que sus clasificaciones pueden cambiar con el tiempo. El Instituto de Oxford se centró únicamente en preguntas en inglés, y advirtió que ello podría pasar por alto sesgos adicionales en otros idiomas.