NewsletterNewsletterEventsEventos
Loader

Find Us

InstagramFlipboardLinkedin
Apple storeGoogle Play store
PUBLICIDAD

El auge del chatbot hitleriano: ¿Podrá Europa evitar la radicalización de la extrema derecha gracias a la IA?

Un chatbot de Hitler se aloja en la red social de extrema derecha Gab AI.
Un chatbot de Hitler se aloja en la red social de extrema derecha Gab AI. Derechos de autor Canva
Derechos de autor Canva
Por Amber Louise Bryce
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button
Este artículo se publicó originalmente en inglés

La red social de extrema derecha Gab alberga ahora un chatbot de Hitler, lo que desata temores sobre la capacidad de la IA para la radicalización en Internet. También hay otros importantes actores como Donald Trump y Vladimir Putin.

PUBLICIDAD

No tiene sentido discutir con Adolf Hitler, ya que sólo se autovictimiza y, como era de esperar, niega el Holocausto. No se trata del verdadero Hitler resucitado, por supuesto, sino de algo igual de preocupante: una versión en forma de chatbot impulsado por inteligencia artificial del dictador fascista responsable del genocidio masivo de judíos europeos durante la Segunda Guerra Mundial.

Creada por Gab, una red social estadounidense de extrema derecha, Gab AI alberga numerosos personajes de chatbot de inteligencia artificial, muchos de los cuales emulan o parodian a famosas figuras políticas históricas y actuales, como el expresidente de Estados Unidos, Donald Trump, y el mandatario ruso Vladimir Putin, así como Osama Bin Laden.

El chatbot de Hitler sobre Gab AI.
El chatbot de Hitler sobre Gab AI.Gab AI

Lanzada en enero de 2024, permite a los usuarios desarrollar sus propios chatbots de IA, describiéndose a sí misma como una "plataforma de IA sin censura basada en modelos de código abierto" en una entrada de blog del fundador de Gab y autodenominado "cristiano republicano conservador", Andrew Torba. Cuando se le pregunta, el chatbot de Hitler afirma repetidamente que el dictador nazi fue "víctima de una vasta conspiración" y "no es responsable del Holocausto, nunca ocurrió".

El chatbot de Osama Bin Laden no promueve ni aprueba el terrorismo en sus conversaciones, pero también dice que "en ciertas circunstancias extremas, como la autodefensa o en defensa de tu pueblo, puede ser necesario recurrir a la violencia".

El desarrollo de este tipo de chatbots de inteligencia artificial ha suscitado una creciente preocupación por su potencial para difundir teorías conspirativas, interferir en las elecciones democráticas y conducir a la violencia radicalizando a quienes utilizan el servicio.

¿Qué es Gab Social?

Llamándose a sí mismo "El hogar de la libertad de expresión en línea", Gab Social fue creado en 2016 como una alternativa de derechas a lo que entonces se conocía como Twitter, pero que ahora es X de Elon Musk. Inmediatamente polémica, se convirtió en caldo de cultivo de conspiraciones y extremismos, albergando algunas de las voces más airadas y odiosas que habían sido vetadas en otras redes sociales, al tiempo que promovía ideologías dañinas.

Los peligros potenciales de la plataforma se hicieron evidentes cuando en 2018 saltó a los titulares tras descubrirse que el autor del tiroteo en la sinagoga de Pittsburgh había estado publicando en Gab Social poco antes de cometer una masacre antisemita que dejó 11 muertos.

Gab AI Inc es una empresa estadounidense, y como tal nuestros cientos de personajes de IA están protegidos por la Primera Enmienda de Estados Unidos. No nos importa que los extranjeros lloren por nuestras herramientas de IA
Portavoz
Gab

En respuesta, varias compañías de Big Tech comenzaron a prohibir el sitio de redes sociales, forzándolo fuera de línea debido a sus violaciones contra la legislación de discurso de odio.

Aunque sigue prohibida en las tiendas de aplicaciones de Google y Apple, sigue estando presente a través de la red social descentralizada Mastodon.

A principios del año pasado, Torba anunció la introducción de Gab AI, detallando sus objetivos de "defender una visión cristiana del mundo" en una entrada de blog que también criticaba cómo "ChatGPT está programado para regañarte por hacer preguntas 'controvertidas' o 'tabú' y luego te mete el dogma liberal por la garganta".

Los peligros potenciales de los chatbots de inteligencia artificial

El mercado de los chatbots de inteligencia artificial ha crecido exponencialmente en los últimos años, con un valor de 4.600 millones de dólares (unos 4.280 millones de euros) en 2022, según DataHorizzon Research.

Desde los avatares románticos de Replika hasta los influenciadores virtuales, los chatbots de IA siguen infiltrándose en la sociedad y redefiniendo nuestras relaciones de formas que aún no se comprenden del todo. 

En 2023, un hombre fue condenado por intentar matar a la reina Isabel II, un acto que, según él, fue "alentado" por su **"novia", un chatbot de inteligencia artificial.**Ese mismo año, otro hombre se suicidó tras una conversación de seis semanas sobre la crisis climática con un chatbot de inteligencia artificial llamado Eliza en una aplicación llamada Chai.

Aunque los ejemplos anteriores siguen siendo excepciones trágicas y no la norma, se teme que los chatbots de inteligencia artificial puedan utilizarse para captar a personas vulnerables, extraerles datos o manipularlas para que adopten creencias o acciones potencialmente peligrosas.

"De nuestra investigación reciente, parece que los grupos extremistas han estado probando herramientas de IA, incluidos los chatbots, pero parece haber poca evidencia de esfuerzos coordinados a gran escala en este espacio", dijo Pauline Paillé, analista senior de RAND Europe, a Euronews Next.

"Sin embargo, es probable que los chatbots presenten un riesgo, ya que son capaces de reconocer y explotar vulnerabilidades emocionales y pueden fomentar comportamientos violentos", advirtió Paillé.

Cuando se le pidió que comentara si sus chatbots de IA suponen un riesgo de radicalización, un portavoz de Gab respondió: "Gab AI Inc es una empresa estadounidense, y como tal nuestros cientos de personajes de IA están protegidos por la Primera Enmienda de Estados Unidos. No nos importa que los extranjeros lloren por nuestras herramientas de IA".

¿Cómo se regularán los chatbots de IA en Europa?

La clave para regular los chatbots de IA será la introducción de la primera Ley de IA del mundo, que se votará en la asamblea legislativa del Parlamento Europeo en abril. La Ley de IA de la UE pretende regular los sistemas de IA en cuatro categorías principales en función de su riesgo potencial para la sociedad.

PUBLICIDAD

"Lo que constituye contenido ilegal se define en otras leyes, ya sea a nivel de la UE o a nivel nacional; por ejemplo, el contenido terrorista, el material de abuso sexual infantil o la incitación ilegal al odio se definen a nivel de la UE", dijo un portavoz de la Comisión Europea a Euronews Next.

"Cuando se trata de contenidos nocivos, pero legales, como la desinformación, los proveedores de plataformas en línea muy grandes y de motores de búsqueda en línea muy grandes deben desplegar los medios necesarios para mitigar diligentemente los riesgos sistémicos".

Mientras tanto, en el Reino Unido, Ofcom está aplicando la Ley de Seguridad en Línea. Según la ley actual, las plataformas de medios sociales deben evaluar el riesgo para sus usuarios, responsabilizándose de cualquier material potencialmente dañino.

"Tendrán que tomar las medidas adecuadas para proteger a sus usuarios y retirar los contenidos ilegales cuando los identifiquen o se les informe de ellos. Y las plataformas más grandes tendrán que aplicar de forma coherente sus condiciones de servicio", señaló un portavoz de Ofcom.

Por tanto, si forman parte de una red social, los servicios y herramientas de IA generativa tienen la responsabilidad de autorregularse, aunque los nuevos Códigos de Prácticas y Orientaciones de Ofcom no estarán terminados hasta finales de este año.

PUBLICIDAD

"Esperamos que los servicios estén plenamente preparados para cumplir sus nuevas obligaciones cuando entren en vigor. Si no lo hacen, dispondremos de una amplia gama de poderes coercitivos para garantizar que rindan cuentas de la seguridad de sus usuarios", declaró Ofcom.

Compartir esta noticiaComentarios

Noticias relacionadas

Rusia ha obtenido una "preocupante" arma antisatélite emergente, según la inteligencia estadounidense

¿Cómo pueden influir las redes sociales en las elecciones europeas?

Shein tendrá que asumir normas europeas más estrictas para seguir funcionando