El infierno de las mujeres atrapadas por el porno "deepfake", las falsificaciones pornográficas

El lado oscuro de la inteligencia artificial: las mujeres atrapadas por las falsificaciones pornográficas
El lado oscuro de la inteligencia artificial: las mujeres atrapadas por las falsificaciones pornográficas Derechos de autor Canva
Por Imane El Atillah
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

Imágenes pornográficas trucadas con las caras de sus víctimas, que antes eran famosos y que ahora puede ser cualquiera, circulan casi impunemente por Internet. Las víctimas piden que los autores rindan cuentas.

PUBLICIDAD

Noelle Martin solo tenía dieciocho años cuando descubrió que estaban circulando en Internet fotos pornográficas de ella. No recordaba haberse sacado nunca ni haber compartido imágenes tan íntimas. Sin embargo, ahí estaba su cara. Aunque el cuerpo no era el suyo.

Se convirtió en víctima de lo que luego se llamaría "deepfakes": Imágenes pornográficas manipuladas para que parecieran suyas empleando fotos que había compartido en su perfil en redes sociales. 

Destruir la vida de las víctimas

"Esto es una condena a cadena pepetua", ha contado Martin a Euronews Next. "Puede destruir la vida de la gente, su empleabilidad, sus relaciones sociales o románticas. Y se puede hacer muy poco si eres el objetivo".

Los "deepfakes" son vídeos alterados digitalmente o imágenes creadas para colocar a alguien en un escenario falso. Mientras que la tecnología _deepfake_puede emplearse con un propósito más desenfadado, satírico o bien intencionado, un informa de Deeptrace Labs reveló en 2019 que el 96 % del contenido deepfake en Internet es pornografía no autorizada.

La semana pasada, un joven de 22 años de Nueva York fue condenado a seis meses de cárcel por publicar fotos pornográficas deepfake de excompañeros de clase, usando imágenes de ellos de su etapa adolescente obtenidas de sus perfiles en las redes sociales.

Luchando por justicia

En 2013, cuando le pasó a ella, Martin intentó limitar el daño acudiendo a la policía y pidiendo la retirada de las imágenes. Sin embargo, la policía no podía hacer nada puesto que en ese momento no existían leyes contra la distribución de imágenes íntimas en Australia, donde ella vive. 

"Incluso en el caso de que pudieras retirar estas cosas, si eres víctima, aún queda pedir que los responsables rindan cuentas. Porque retirar este material de sitios públicos, de estos sitios web o de dondequiera que estén alojados es solamente una de las cuestiones", comenta Martin. "Si no se hace rendir cuentas a los autores o responsables, pueden seguir haciéndolo".

Martin se dedicó a la abogacía y pasó años impulsando leyes contra el intercambio no consentido de imágenes íntimas en Australia. En 2018, su trabajo contribuyó a introducir nuevas leyes que penalizan la distribución de imágenes íntimas no consentidas o "porno de venganza" en su país.

Diez años después de su experiencia traumática, Martin, abogada e investigadora jurídica en la Universidad de Australia Occidental, sigue defendiendo causas contra este tipo de delitos, especialmente los creados con tecnología deepfake

"Al final, lo que tratamos de hacer como comunidad de supervivientes es presionar para que se establezcan leyes, presionar para que los países de todo el mundo tipifiquen como delito esta cuestión, presionar para que se desarrolle una infraestructura que garantice que las víctimas puedan buscar ayuda", añade Martin.

El auge de las falsificaciones pornográficas

Los grandes avances recientes en inteligencia artificial (IA) y la creciente accesibilidad de esta tecnología han facilitado la creación de material sexual llamativamente realista y engañoso.

Cuando surgieron estas falsificaciones pornográficas, su principal objetivo era hacerlas con rostros de famosos.

El propio término deepfakes surgió en 2017, cuando un usuario con ese alias en la plataforma social Reddit se hizo conocido por crear y compartir vídeos pornográficos trucados de mujeres famosas, como ellas Scarlett Johansson y Taylor Swift. 

Pillado in fraganti

La cuestión volvió a primer plano el pasado mes de enero, cuando una popular figura de Twitch, Brandon Ewing -conocido en Internet como "Atrioc"- fue sorprendido con un sitio web de falsificaciones porno abierto en su navegador durante una retransmisión en directo. En la página aparecían imágenes trucadas de otros colegas presentadores de Twitch y amigos.

Ewing se disculpó lloroso y suspendió sus retransmisiones durante varias semanas, mientras Twitch actualizaba las directrices de su comunidad para prohibir el porno deepfake en la plataforma.

En su disculpa, Ewing alegó que sentía una "curiosidad morbosa" después de ver un anuncio de este material  en un popular sitio web de pornografía y pagó para tener acceso a estos vídeos.

Las mujeres que retransmiten en Twitch han visto sus nombres arrastrados por la polémica. Muchas de ellas han declarado que incluso desconocían la existencia de este tipo de contenido en la red. 

De hecho, el escándalo en Twitch provocó un aumento de las búsquedas en Internet de los términos  "porno deepfake", y "deepfakes", según los datos de Google Trends.

PUBLICIDAD

Los espectadores son parte del problema

Sophie Compton, cofundadora de la coalición My Image My Choice (Mi imagen, mi elección), que hace campaña contra los abusos cometidos empleando imágenes íntimas, ha asegurado que la polémica demuestra que los usuarios de estos sitios web son parte del problema y también deben rendir cuentas.

"Son compañeros de clase, amigos, hermanos, novios. Puede que no se den cuenta de que su participación también forma parte del problema. Están ayudando a validar algo que es extremadamente perjudicial para las mujeres".
Sophie Compton
Cofundadora de My Image, my Choice

"No se trata solo de los creadores, sino de todos los usuarios. Y se trata de chicos normales. Es gente de nuestras escuelas, y probablemente también algunas mujeres. Pero predominan los hombres. Compañeros de clase, amigos, hermanos, novios", ha explicado Compton a Euronews Next. 

"Puede que no se den cuenta de que su participación también forma parte del problema. Están ayudando a validar algo que es extremadamente perjudicial para las mujeres".

Cómo se utilizan las falsificaciones pornográficas contra sus víctimas

Aunque las falsificaciones pornográficas de famosos existe desde hace años, los recientes avances en IA hacen que hoy en día prácticamente cualquiera pueda ser víctima de este tipo de contenidos.

La tecnología también puede utilizarse para desacreditar o chantajear a una persona en un intento de silenciarla o socavarla.

PUBLICIDAD

"Parece que cada mes aparece un nuevo sitio web de pornografía deepfake, que se está convirtiendo en un negocio", señala Compton, que subraya la aparente impunidad con la que se abren estos sitios. 

"La gente se identifica como falsificador porno y acepta bitcoins y PayPal como formas de pago. Cuentan con un eslogan, una etiqueta y un logotipo". 

La degradación de la mujer

Independientemente de que la motivación para crear y compartir porno deepfake sea avergonzar, difamar o acosar a las víctimas o simplemente ganar dinero, el contenido suele reflejar las fantasías de algunos hombres de degradar y cosificar a las mujeres utilizando imágenes explícitas, reales o falsas.

"Desde la perspectiva de una persona que es objeto de esto, incluso aunque digas que es falso o incluso si no es completamente realista, el daño sigue siendo irreparable", lamentaba Martin.

"Si se crea un deepfake de ti, la gente seguirá asociando contigo lo que se representa. Tu reputación, tu nombre y tu imagen pueden seguir siendo arrastrados por el barro". 

PUBLICIDAD

Rana Ayyub, periodista india de investigación y colaboradora del diario estadounidense The Washington Post, fue víctima de una campaña de difamación en la que se utilizaron imágenes de falsificaciones pornográficas suyas para intentar silenciarla.

"Todo el país estaba viendo un vídeo porno en el que se decía que era yo, y yo no me atrevía a hacer nada. Desde el día en que se publicó, no he vuelto a ser la misma persona. Antes era muy obstinada, ahora soy mucho más prudente con lo que publico en Internet. Me he autocensurado bastante por necesidad. Es una herramienta muy, muy peligrosa y no sé hacia dónde nos dirigimos con ella".
Rana Ayyub
Periodista víctima de las falsificaciones pornográficas

Ayyub contó su angustiosa experiencia en una columna en la que explicaba cómo el hecho de ser musulmana, hablar claro y ser considerada "contraria al sistema" la convirtió en blanco del odio en las redes sociales.

Los abusos a los que estaba acostumbrada en Internet pasaron a otro nivel cuando un falso vídeo pornográfico suyo se hizo viral y la dejó tan conmocionada que ni siquiera era capaz de ver a su familia. 

"Todo el país estaba viendo un vídeo porno en el que se decía que era yo, y yo no me atrevía a hacer nada", recuerda. "Desde el día en que se publicó, no he vuelto a ser la misma persona. Antes era muy obstinada, ahora soy mucho más prudente con lo que publico en Internet. Me he autocensurado bastante por necesidad. Es una herramienta muy, muy peligrosa y no sé hacia dónde nos dirigimos con ella".

¿Existen leyes que nos protejan de las falsificaciones pornográficas?

Los activistas afirman que actualmente es muy fácil humillar públicamente a una persona con esta técnica, y que esta falta de regulación y de responsabilidad de los autores está fallando a las víctimas.

PUBLICIDAD

"El mensaje que se está enviando a la gente que está haciendo este material es que nadie va a ir a por ellos. Que no es ilegal y no tiene consecuencias", afirma Compton.

La Unión Europea ha propuesto nuevas normativas para abordar los contenidos nocivos en línea, pero aún tiene que demostrar que puede proteger plenamente a las personas de esta práctica.

Por ejemplo, la Ley de Inteligencia Artificial, que se está debatiendo actualmente en el Parlamento Europeo, exige a los creadores que indiquen claramente si el contenido se ha generado o manipulado artificialmente. Pero los activistas afirman que las cláusulas de exención de responsabilidad difícilmente disuadirán a los creadores o harán justicia a las víctimas una vez que el contenido haya salido a la luz y esté vinculado a ellas para siempre.

Sin embargo, un proyecto de ley de la UE, la Directiva sobre violencia de género, propuesto en 2022, penalizaría el intercambio no consentido de imágenes íntimas, y los autores podrían enfrentarse a penas de cárcel. El artículo 7b incluso se refiere específicamente a las falsificaciones pornográficas.

El papel de las empresas tecnológicas y las plataformas de Internet

Las víctimas confían en que las plataformas de Internet actualicen sus políticas para acabar con los contenidos pornográficos falsificados.

PUBLICIDAD

OpenAI, la empresa que está detrás de la herramienta de generación de imágenes DALL-E, ya ha eliminado el contenido explícito de sus datos y filtra las solicitudes para bloquear la creación de imágenes de famosos y políticos.

Otro popular modelo de IA, Midjourney, bloquea determinadas palabras clave y anima a los usuarios a señalar las imágenes problemáticas a los moderadores.

TikTok también ha ordenado que los deepfakes o contenidos manipulados se etiqueten como falsos o alterados, y ha prohibido los de personas anónimas y jóvenes.

Cuando actualizó sus directrices para la comunidad, Twitch advirtió de que la promoción, creación o publicación intencionada de falsificaciones pornográficas conllevaría una prohibición instantánea. Incluso mostrar un atisbo de ese contenido -aunque sea con la intención de expresar indignación- "será eliminado y dará lugar a una sanción", escribieron representantes de la empresa en una entrada de su blog.

Mientras tanto, Meta, OnlyFans y Pornhub han empezado a participar en la nueva herramienta "Take It Down", que permite a los adolescentes denunciar imágenes y vídeos explícitos suyos en Internet.

PUBLICIDAD
Compartir esta noticiaComentarios

Noticias relacionadas

X suspende las búsquedas sobre Taylor Swift por la difusión de imágenes pornográficas 'deepfake'

El cohete Starship de SpaceX explota tras despegar con éxito desde Texas

¿Podría la ley de la UE contra la pornografía infantil acabar con nuestra privacidad 'online'?