Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Moscú utiliza deepfakes de soldados ucranianos en la línea del frente digital

Imágenes de vídeos generados por IA de soldados ucranianos que circulan por las redes sociales.
Imágenes de vídeos generados por IA de soldados ucranianos que circulan por las redes sociales. Derechos de autor  @Sensity, TikTok, Telegram
Derechos de autor @Sensity, TikTok, Telegram
Por Estelle Nilsson-Julien & Tamsin Paternoster
Publicado
Compartir Comentarios
Compartir Close Button

Moscú está utilizando vídeos de soldados ucranianos generados por IA para socavar la confianza en su mando central. Estos vídeos incluyen imágenes auténticas que se combinan con elementos generados por la IA, lo que dificulta la detección de incoherencias.

Un vídeo publicado en las redes sociales muestra a un soldado ucraniano desesperado que gira su cámara para mostrar trincheras llenas de cadáveres y soldados heridos. Estos vídeos revelan la escalofriante realidad que viven muchos ucranianos que luchan contra las tropas rusas en el frente, un componente clave de la guerra moderna.

PUBLICIDAD
PUBLICIDAD

Sin embargo, en realidad estas imágenes tan difundidas están generadas por IA, como ha comprobado la empresa de detección forense Sensity AI. Los investigadores de Sensity advierten de que se están utilizando deepfakes para manipular a la opinión pública y socavar la confianza en el Ejército ucraniano, a partir de vídeos auténticos de soldados ucranianos que documentan su vida cotidiana desde el terreno.

Los vídeos se hacen pasar por auténticas imágenes de primera línea. Por ejemplo, en otro vídeo difundido en las redes sociales, puede verse a un soldado criticando a la cúpula militar del Ejército ucraniano. "No quiero servir con ellos", dice el soldado en el vídeo.

Sensity encontró más de 1.000 vídeos similares repartidos por las redes sociales, e identificó un conjunto de datos básico de 60 vídeos manipulados por inteligencia artificial. Estos vídeos incluyen caras generadas por IA, así como voces no naturales. En algunos casos, las imágenes auténticas se combinan con elementos generados por la IA, lo que dificulta la detección de incoherencias.

De TikTok a 'Pravda'

Según Sensity, hay un patrón consistente en estos vídeos para asegurarse de que se difunden ampliamente en las redes sociales, inundando el feed de los usuarios. En el lote analizado por Sensity, los vídeos suelen subirse a plataformas como TikTok o Telegram desde cuentas recién creadas o anónimas.

Una vez que empiezan a suscitar interés: visitas, "me gusta" y comentarios, se vuelven a publicar en plataformas como X, Facebook, Instagram y YouTube. En estas plataformas, los algoritmos recompensan los contenidos cargados de emoción difundiéndolos en las líneas de tiempo de los usuarios.

Este vídeo, en el que soldados ucranianos dicen que no han recibido comunicación de su mando, fue realizado con tecnología de intercambio de rostros.
Este vídeo, en el que soldados ucranianos dicen que no han recibido comunicación de su mando, se hizo con tecnología de intercambio de rostros. Cleared

Una vez que la narración circula por las redes sociales, Sensity informa de que blogueros militares prorrusos o sitios de medios de comunicación favorables al Kremlin, como la red 'Pravda', recogen el contenido.

Socavar la confianza de los soldados

Aunque los vídeos son diferentes, utilizan narrativas similares con la intención de influir en la percepción de la guerra. Esto incluye mostrar a soldados desesperados por la situación en el frente, afirmaciones de que el liderazgo militar ucraniano es inadecuado o está ausente, así como acusaciones sobre la mala gestión del Ejército ucraniano.

Muchos de estos vídeos también pretenden normalizar la rendición, mostrando a soldados ucranianos afirmando que abandonar sus puestos es su única salida a la guerra. El objetivo de estos vídeos es minar la confianza en las instituciones y el mando militar de Ucrania, así como debilitar la moral, según el fundador de Sensity, Francesco Cavalli.

"El peligro real de estos vídeos en plataformas como TikTok y Meta no es simplemente que algunos usuarios puedan creerlos, es que pueden moldear la percepción a escala, inyectar confusión en acontecimientos de rápida evolución y erosionar gradualmente la confianza en lo que la gente ve", afirmó.

"El antiguo temor era un vídeo falso de un presidente. La nueva realidad son miles de vídeos sintéticos dirigidos a audiencias más pequeñas, en los que no es necesario que un solo clip se convierta en viral para ser eficaz".

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

Cómo la desinformación y los 'deepfakes' influyen en la guerra de Irán

The Cube: Las estafas con 'deepfakes' baten récords en redes sociales

The Cube: ¿Cómo los 'deepfakes' y la IA llenaron el vacío informativo tras la captura de Maduro?