Moscú está utilizando vídeos de soldados ucranianos generados por IA para socavar la confianza en su mando central. Estos vídeos incluyen imágenes auténticas que se combinan con elementos generados por la IA, lo que dificulta la detección de incoherencias.
Un vídeo publicado en las redes sociales muestra a un soldado ucraniano desesperado que gira su cámara para mostrar trincheras llenas de cadáveres y soldados heridos. Estos vídeos revelan la escalofriante realidad que viven muchos ucranianos que luchan contra las tropas rusas en el frente, un componente clave de la guerra moderna.
Sin embargo, en realidad estas imágenes tan difundidas están generadas por IA, como ha comprobado la empresa de detección forense Sensity AI. Los investigadores de Sensity advierten de que se están utilizando deepfakes para manipular a la opinión pública y socavar la confianza en el Ejército ucraniano, a partir de vídeos auténticos de soldados ucranianos que documentan su vida cotidiana desde el terreno.
Los vídeos se hacen pasar por auténticas imágenes de primera línea. Por ejemplo, en otro vídeo difundido en las redes sociales, puede verse a un soldado criticando a la cúpula militar del Ejército ucraniano. "No quiero servir con ellos", dice el soldado en el vídeo.
Sensity encontró más de 1.000 vídeos similares repartidos por las redes sociales, e identificó un conjunto de datos básico de 60 vídeos manipulados por inteligencia artificial. Estos vídeos incluyen caras generadas por IA, así como voces no naturales. En algunos casos, las imágenes auténticas se combinan con elementos generados por la IA, lo que dificulta la detección de incoherencias.
De TikTok a 'Pravda'
Según Sensity, hay un patrón consistente en estos vídeos para asegurarse de que se difunden ampliamente en las redes sociales, inundando el feed de los usuarios. En el lote analizado por Sensity, los vídeos suelen subirse a plataformas como TikTok o Telegram desde cuentas recién creadas o anónimas.
Una vez que empiezan a suscitar interés: visitas, "me gusta" y comentarios, se vuelven a publicar en plataformas como X, Facebook, Instagram y YouTube. En estas plataformas, los algoritmos recompensan los contenidos cargados de emoción difundiéndolos en las líneas de tiempo de los usuarios.
Una vez que la narración circula por las redes sociales, Sensity informa de que blogueros militares prorrusos o sitios de medios de comunicación favorables al Kremlin, como la red 'Pravda', recogen el contenido.
Socavar la confianza de los soldados
Aunque los vídeos son diferentes, utilizan narrativas similares con la intención de influir en la percepción de la guerra. Esto incluye mostrar a soldados desesperados por la situación en el frente, afirmaciones de que el liderazgo militar ucraniano es inadecuado o está ausente, así como acusaciones sobre la mala gestión del Ejército ucraniano.
Muchos de estos vídeos también pretenden normalizar la rendición, mostrando a soldados ucranianos afirmando que abandonar sus puestos es su única salida a la guerra. El objetivo de estos vídeos es minar la confianza en las instituciones y el mando militar de Ucrania, así como debilitar la moral, según el fundador de Sensity, Francesco Cavalli.
"El peligro real de estos vídeos en plataformas como TikTok y Meta no es simplemente que algunos usuarios puedan creerlos, es que pueden moldear la percepción a escala, inyectar confusión en acontecimientos de rápida evolución y erosionar gradualmente la confianza en lo que la gente ve", afirmó.
"El antiguo temor era un vídeo falso de un presidente. La nueva realidad son miles de vídeos sintéticos dirigidos a audiencias más pequeñas, en los que no es necesario que un solo clip se convierta en viral para ser eficaz".