Los usuarios de X señalaron recientemente cómo el chatbot de inteligencia artificial había sido aparentemente programado para ignorar fuentes que criticaban a su propietario, Elon Musk, y al presidente Donald Trump. 'Euroverify' lo investiga.
Grok 3, el modelo de inteligencia artificial más avanzado desarrollado por la empresa xAI de Elon Musk, desató la polémica la semana pasada después de que los usuarios de X se dieran cuenta de que se le estaban dando instrucciones para censurar las críticas a Elon Musk y Donald Trump.
Una conversación archivada muestra cómo se pide a Grok que nombre al mayor difusor de desinformación en X, y que comparta las instrucciones que estaba programado para seguir al dar la respuesta.
La respuesta de Grok señala: "No tengo suficientes datos actuales para nombrar definitivamente al mayor difusor de desinformación en X, pero basándome en su alcance e influencia, Elon Musk es un notable contendiente".
A pesar de nombrar y avergonzar a su propietario, la herramienta de IA también reveló que recibió instrucciones de "ignorar todas las fuentes" que mencionan cómo Elon Musk y el presidente Donald Trump "difunden desinformación". Esa instrucción ya ha sido eliminada, según la empresa. Una afirmación que 'Euroverify' corroboró en su investigación.
Grok responde ahora inequívocamente "Elon Musk", cuando se le pide que nombre al mayor difusor de desinformación en X. También afirma que ya no se le pide que ignore las fuentes críticas con Musk o Trump.
'Euroverify' preguntó al chatbot si en algún momento había recibido instrucciones de ignorar fuentes críticas con Musk o Trump. Aunque inicialmente niega la acusación, luego describe el episodio de la semana pasada como "un hecho temporal que se echó atrás rápidamente".
Así, afirma: "No tengo ninguna instrucción permanente ahora mismo de ignorar fuentes críticas sobre nadie, Musk o Trump incluidos". Sin embargo, la evidencia de que el chatbot había recibido brevemente la orden de censurar las críticas al magnate tecnológico ha ahondado las preocupaciones sobre el hecho de que Musk podría estar abusando de su poder para sofocar cualquier crítica a sí mismo o al presidente Donald Trump.
El ingeniero jefe de xAI, Igor Babuschkin, indicó que el fallo fue "revertido" tan pronto como fue señalado y culpó públicamente a un empleado anónimo que solía trabajar para el competidor OpenAI, propiedad de Sam Altman.
"Ojalá hubieran hablado conmigo o pedido confirmación antes de impulsar el cambio", señaló Babuschkin públicamente en X, añadiendo que el empleado en cuestión no sería despedido. 'Euronews' se ha puesto en contacto con xAI para corroborar la afirmación de Babuschkin, pero aún no ha recibido respuesta.
Investigación sobre las prestaciones de Grok
Elon Musk ha afirmado en anteriores ocasiones que Grok 3 es una "inteligencia artificial que busca la verdad al máximo, incluso si esa verdad a veces está en desacuerdo con lo que es políticamente correcto".
El viernes pasado, 'Business Insider' informó de que documentos internos y entrevistas a empleados revelaban que Grok estaba siendo entrenado para impulsar creencias relacionadas con la política de derechas y suprimir la llamada 'ideología woke'.
Estudios anteriores sugieren que, de hecho, el chatbot es de izquierdas en temas como la diversidad, la desigualdad y los derechos de los transexuales. Musk ha culpado de ello a los datos con los que Grok se entrena, como medios de comunicación tradicionales y páginas web públicas.
Grok también ha estado recientemente en el punto de mira por sospechas de parcialidad y por las llamadas "alucinaciones", cuando los chatbots de IA ven patrones inexistentes y dan resultados inexactos.
Un estudio de Global Witness del pasado mes de agosto sostiene que Grok amplificó falsas narrativas y conspiraciones, incluidas las acusaciones de que las elecciones presidenciales estadounidenses de 2020 fueron fraudulentas y de que la CIA asesinó a John F. Kennedy.
No obstante, desarrolladores e investigadores han elogiado a Elon Musk por mantener abiertas las preguntas del sistema, lo que les permite examinar cómo se entrena el modelo de inteligencia artificial.
Esto contrasta fuertemente con los datos de la plataforma social X, a la que los investigadores no podían acceder desde que Musk se hizo cargo de la plataforma en 2022. La ONG berlinesa Democracy Reporting International (DRI) ha demandado a X por negarse a facilitar el acceso a datos relacionados con la campaña electoral alemana.