Más de 50 organizaciones de consumidores y derechos digitales han alertado a la Comisión Europea sobre los peligros de un posible "freno" a la implementación de la Ley de IA, afirmando que retrasar su entrada en vigor o reabrir el texto socavaría los mecanismos clave de rendición de cuentas.
Más de 50 organizaciones, entre ellas Access Now, el Centro para la Democracia y la Tecnología en Europa (CDT) y la Organización Europea de Consumidores (BEUC), advirtieron el miércoles a la Comisaria de Tecnología de la UE, Henna Virkkunen, que reabrir la Ley de IA o retrasar la entrada en vigor de sus normas socavaría mecanismos clave de rendición de cuentas.
El documento expresa una profunda preocupación por la "creciente presión en relación con un posible mecanismo de 'parada del reloj' para suspender o retrasar la aplicación y el cumplimiento de la Ley de IA". La carta es contundente: "La agenda de simplificación de la UE no debe utilizarse para impulsar la desregulación, especialmente en ausencia de pruebas creíbles de que esto sería necesario o eficaz". Las organizaciones enfatizan que las normas de la UE se basan en valores y principios fundamentales, y que "los esfuerzos para simplificar deben basarse en las protecciones legales duramente ganadas, no desmantelarlas".
Esta iniciativa surge después de que, a principios de este mes, directores ejecutivos de más de 40 empresas europeas —incluidas ASML, Philips, Siemens y Mistral— pidieran a la Comisión un "parón de dos años" en la Ley de Inteligencia Artificial antes de que las obligaciones clave entraran en vigor el próximo agosto. Argumentaron que el retraso era necesario "tanto para una aplicación razonable por parte de las empresas, como para una mayor simplificación de las nuevas normas".
Período de gracia y el Código de Buenas Prácticas
La Ley de IA, una normativa que regula los sistemas de inteligencia artificial en función del riesgo que suponen para la sociedad, entró en vigor en agosto de 2024, aunque su aplicación plena está prevista para 2027. Las empresas solicitaron específicamente una pausa en las obligaciones sobre los sistemas de IA de alto riesgo, que deben entrar en vigor en agosto de 2026, y en las obligaciones para los modelos de IA de propósito general (GPAI), cuya aplicación está fijada para agosto de 2025.
Mientras tanto, el Código de Buenas Prácticas sobre GPAI, un conjunto voluntario de normas diseñado para ayudar a los proveedores de modelos de IA como ChatGPT y Gemini a cumplir con la Ley de IA, aún no se ha elaborado. Aunque su borrador, redactado por expertos nombrados por la Comisión, se espera ahora para julio, las empresas alegan que no tienen tiempo suficiente para cumplir con la normativa antes de su entrada en vigor en agosto, y han solicitado un periodo de gracia.
Thomas Regnier, portavoz de la Comisión en materia digital, declaró a 'Euronews' que lo que se está debatiendo en el contexto del Consejo de IA es "el calendario para aplicar el Código de Buenas Prácticas, y se baraja finales de 2025". Añadió que esto sería "mucho antes de los plazos de aplicación de la Ley de IA: 2026 para los nuevos modelos y 2027 para los existentes".
El proceso de elaboración de las normas ha sido objeto de críticas desde que los expertos designados por la Comisión comenzaron a redactarlas en septiembre de 2024. Tanto los gigantes tecnológicos como los editores y titulares de derechos temen que las normas violen la legislación de la UE sobre derechos de autor y restrinjan la innovación.