Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

La Comisión Europea, Interpol y 100 organizaciones piden prohibir la generación de desnudos por IA

Importantes organizaciones internacionales piden frenar las aplicaciones de desnudos por IA
Grandes organizaciones internacionales exigen frenar las aplicaciones que desnudan con IA Derechos de autor  Canva
Derechos de autor Canva
Por Indrabati Lahiri
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

Varias grandes organizaciones internacionales, como Amnistía Internacional y la Comisión Europea, reclaman la prohibición de las herramientas que generan desnudos por IA.

Más de 100 importantes organizaciones humanitarias y de protección de la infancia reclaman medidas urgentes contra las aplicaciones y herramientas de IA que desnudan imágenes. La coalición incluye a Amnistía Internacional, la Comisión Europea, Interpol, Safe Online, Save the Children y otros expertos en protección infantil y defensores de los derechos humanos.

Este movimiento llega tras la polémica en torno a Grok y su función para desnudar imágenes, cuando los usuarios pidieron al chatbot de IA de Elon Musk, Grok, que eliminara la ropa de fotografías digitales de mujeres.

Todo comenzó con la tendencia 'put her in a bikini', que modificaba las imágenes para mostrar a las mujeres en bikini, pero derivó rápidamente en fotos cada vez más sexualizadas. Estas imágenes sin consentimiento y falsas se publicaron después de forma abierta en la red social X, al alcance de millones de personas. Hasta ahora, se calcula que Grok ha generado en torno a tres millones de desnudos no consentidos.

En varios casos, las imágenes creadas mediante herramientas de desnudo con IA se han relacionado cada vez más con chantajes, coacciones y material de abuso sexual infantil, y la mayoría de las víctimas son mujeres y menores.

Una grave amenaza para la seguridad infantil y la dignidad humana

La coalición global ha subrayado que estas aplicaciones y herramientas de desnudo con IA representan una amenaza grave e inaceptable para la seguridad de los menores y la dignidad humana.

"Las herramientas que desnudan imágenes han creado una amenaza sin precedentes para nuestros niños. La IA, la tecnología que debería ampliar el potencial humano, se está utilizando como arma contra los menores", afirmó en un comunicado Marija Manojlovic, directora de Safe Online.

"Restamos importancia a este daño al llamarlo 'online', como si fuera de algún modo menos grave que lo que ocurre en el mundo físico, pero el trauma es real", añadió. Aunque a menudo se comercializan como aplicaciones para adultos, cada vez se utilizan más para generar imágenes sexuales ilegales de menores sin ningún tipo de consentimiento, sin barreras eficaces ni mecanismos de rendición de cuentas.

"Las empresas tecnológicas tienen capacidad para detectar y bloquear contenido de menores desnudados con estas herramientas. La distribución de material de abuso sexual infantil es ilegal en todas las jurisdicciones y las plataformas tecnológicas deberían alinearse con el resto de canales de creación y distribución", señaló Manojlovic.

"Resulta francamente chocante que estas plataformas se moneticen y no estén obligadas a denunciar a los agresores ni a trabajar con otros actores del sector para cortar los flujos de pago; son herramientas de protección que se utilizan en el mundo real y que deben aplicarse también a las plataformas en línea".

La presión para prohibir las tecnologías de desnudo con IA va en aumento, y sus detractores sostienen que no tienen ningún uso legítimo. Por ello, la coalición pide que estas tecnologías se bloqueen y que desarrolladores y plataformas rindan cuentas.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

Un nuevo informe independiente afirma que Kurt Cobain pudo ser asesinado

Un fallo en los dispositivos Shelly deja expuestos a 5,2 millones de hogares

Kazajistán se está posicionando como el próximo centro de criptomonedas de Eurasia