El acuerdo europeo para prohibir los sistemas de IA que generan deepfakes sexuales marca un hito en protección digital. ¿Qué son estos contenidos sintéticos y qué riesgos plantean según Europol?
España logró la semana pasada un acuerdo en la Unión Europea para prohibir los sistemas de inteligencia artificial que generen deepfakes sexuales sin consentimiento. La enmienda, aceptada por el Parlamento Europeo, el Consejo y la Comisión, vetará la introducción en el mercado, la puesta en servicio y el uso de herramientas capaces de crear o manipular imágenes, vídeos o audios que muestren a personas en situaciones íntimas sin su consentimiento explícito.
La iniciativa se enmarca en la reforma de la Ley Europea de Inteligencia Artificial y responde a la polémica generada por la difusión de desnudos falsos de mujeres y menores a través de herramientas de generación de contenidos con IA. Además, la prohibición incluirá contenidos generados que reproduzcan o simulen pornografía infantil.
Precisamente, hace justo hoy una semana, el pasado martes, la primera ministra de Italia, Giorgia Meloni, alzó la voz de alarma contra los deepfakes y publicó -a modo de ejemplo- una foto falsa, generada con Inteligencia artificial, en la que su rostro se ha aplicado al cuerpo de una mujer en ropa interior.
En España, el ministro para la Transformación Digital y de la Función Pública, Óscar López, celebró el acuerdo recordando que el Gobierno "sigue liderando el despliegue de un modelo europeo propio de IA, que ha de caracterizarse por ser el más confiable de todos", según recoge un comunicado. La medida complementa la Ley Orgánica para la protección de las personas menores de edad en entornos digitales, que prevé endurecer las penas por la creación y difusión de deepfakes de contenido sexual.
El pacto también recoge el mantenimiento de un registro simplificado para ciertos sistemas de IA que no suponen riesgos directos, y refuerza la obligación de alfabetización digital en IA para proveedores y responsables de despliegue, con el apoyo de las administraciones públicas.
¿Qué son los 'deepfakes'?
Los 'deepfakes' son un tipo de contenido sintético generado por inteligencia artificial capaz de producir audios, imágenes o vídeo extremadamente realistas que muestran a personas diciendo o haciendo cosas que nunca ocurrieron.
Esta tecnología se basa en redes neuronales de aprendizaje profundo, como las redes generativas antagónicas (Generative Adversarial Networks, GAN), que entrenan modelos a partir de grandes cantidades de datos visuales y auditivos disponibles en internet. Cuando se combina con grandes datasets, estos modelos pueden crear simulaciones que son prácticamente indistinguibles de la realidad.
La Europol describe que los deepfakes pueden mostrar personas haciendo o diciendo cosas que nunca hicieron, o incluso crear individuos que nunca existieron, lo que representa un desafío significativo para la veracidad de los medios y la confianza pública.
¿A quiénes afectan principalmente?
Según recoge un informe de Europol sobre el tema, los deepfakes representan una amenaza multifacética, pero ciertas categorías de víctimas son especialmente vulnerables:
Los 'deepfakes' sexuales sin consentimiento pueden destruir reputaciones, afectar la salud mental y causar daños irreparables a la vida personal y profesional. Además, la capacidad de generar pornografía no consensuada eleva el riesgo para mujeres y menores.
La manipulación de imágenes de líderes políticos o empresariales para difundir mensajes falsos o provocar una crisis de confianza puede influir en la opinión pública y deteriorar la credibilidad institucional.
En investigaciones policiales y procesos judiciales, los deepfakes pueden convertir grabaciones audiovisuales en pruebas manipuladas, complicando la labor legal y la administración de justicia.
¿Por qué suponen una amenaza?
- Difusión de desinformación:
Los 'deepfakes' pueden integrarse en campañas de desinformación, socavando la confianza en los medios, las instituciones públicas y los procesos democráticos. La facilidad con la que pueden viralizarse amplifica su impacto social.
- La credibilidad de las pruebas, en duda:
La tecnología pone en cuestión la validez de pruebas audiovisuales en investigaciones o procedimientos, dado que los contenidos generados pueden parecer auténticos aunque sean completamente fabricados.
- Escalada del crimen digital:
Los avances en IA facilitan que actores malintencionados con pocos recursos puedan generar deepfakes de alta calidad, incrementando su uso para fraudes, extorsión, chantaje, y difusión de pornografía no consensuada.
Respuestas y desafíos
La detección y mitigación de 'deepfakes' exige tecnologías igualmente avanzadas que permitan identificar falsificaciones y ofrecer herramientas de prevención. Además, el informe de Europol, que lleva tiempo alertando de los peligros de esta tecnología, destaca la necesidad de que las fuerzas de seguridad y los responsables de políticas públicas desarrollen capacidades específicas para enfrentar este fenómeno, así como cooperación internacional y regulación que combata tanto la producción como la distribución de contenidos sintéticos maliciosos.
España, con su impulso europeo para prohibir los deepfakes sexuales, busca establecer un estándar en la protección de derechos fundamentales frente a los riesgos derivados de la inteligencia artificial. Lo hace en un momento en el que esta tecnología continúa evolucionando y expandiendo sus usos, tanto benignos como perjudiciales, en la vida digital de millones de personas.