La Comisión Europea presenta su plan para proteger a los menores en internet con un nuevo sistema de verificación de edad, mientras los Estados miembros avanzan en vetos a las redes sociales y el Parlamento Europeo reclama fijar el límite en 16 años.
El 93% de los ciudadanos de la UE está preocupado por la salud mental de los niños. El 92% identifica el ciberacoso como la principal amenaza online, según el 'State of the Digital Decade Eurobarometer 2025'. Bruselas ha adoptado una postura más firme en materia de seguridad infantil en internet.
La semana pasada, la presidenta de la Comisión Europea, Ursula von der Leyen, anunció que una nueva "aplicación de verificación de edad está técnicamente lista y pronto estará disponible para los ciudadanos".
El sistema exige a los usuarios verificar su edad para acceder a plataformas online sin compartir datos personales. Los Estados miembros de la UE ya están tomando medidas decisivas. Francia ha aprobado una prohibición dirigida a los menores de 15 años. España, Austria, Grecia, Irlanda, Dinamarca y los Países Bajos se preparan para introducir normas similares en breve.
Christel Schaldemose, eurodiputada del Grupo de la Alianza Progresista de Socialistas y Demócratas y ponente del informe no legislativo sobre una edad mínima a escala de la UE para redes sociales, percibe cierta vacilación en la actuación de la Comisión.
"No sé si están retrasando las medidas a propósito, pero creo que van demasiado lentos. Así acabamos con un mercado interior fragmentado porque muchos países ya han propuesto un límite de edad".
Niños y plataformas online
Las redes sociales se han convertido en un entorno omnipresente y arriesgado para los menores, en gran medida debido a diseños adictivos, conectividad constante, alta personalización y herramientas de inteligencia artificial.
En 2022, el 96% de los jóvenes de 15 años utilizaba redes sociales, y el 37% pasaba más de tres horas al día en estas plataformas. Las adolescentes tienden a usarlas más, con un 42% frente al 32% de sus homólogos masculinos, según un estudio de 2025 del Centro Común de Investigación (JRC).
Entre los niños de 9 a 15 años, el uso diario alcanza con frecuencia las tres horas; el 78% de los adolescentes de 13 a 17 años consulta sus dispositivos al menos una vez por hora; y una cuarta parte reconoce tener hábitos problemáticos en internet, según el informe no legislativo del Parlamento Europeo de noviembre de 2025.
Casi el 99% de los jóvenes de 16 y 17 años participó activamente (creando perfiles, publicando mensajes, usando Facebook, X, etc.) en redes sociales en 2025, según el Eurobarómetro.
Para Christel Schaldemose, el panel de la Comisión sobre seguridad infantil en internet es un primer paso positivo. El profundo conocimiento de los expertos permitirá asesorar de forma eficaz las acciones de la Comisión, afirmó. El Centro Común de Investigación (JRC) advierte de que el uso descontrolado de las redes sociales perjudica la salud mental de los niños, aumentando los niveles de depresión y ansiedad.
Contenidos nocivos, como material violento, sexualizado o que promueve trastornos alimentarios, pueden afectar al desarrollo cerebral y al comportamiento social de los menores. El 60% de las jóvenes presenta síntomas de depresión, frente al 35% de los varones, y el 65% sufre ansiedad, frente al 41% de los chicos, según revela el estudio del JRC.
Dado que muchas plataformas de internet están diseñadas principalmente para adultos, sus modelos de negocio basados en la publicidad tienen graves repercusiones en los usuarios más jóvenes, fomentando la dependencia.
El 36% de los adolescentes en Europa, Asia Central y Canadá mantiene contacto constante a través de redes sociales. El 11% presenta un uso problemático, con tasas más altas entre las chicas (13%) que entre los chicos (9%), según un informe de 2024 de la Organización Mundial de Salud.
Prohibiciones, una competencia nacional
El 8 de abril de 2026, el primer ministro griego, Kyriakos Mitsotakis, anunció una prohibición de las redes sociales para menores de 15 años. La ley, que entrará en vigor en enero de 2027 y aún está pendiente de aprobación parlamentaria, impedirá a los menores tener cuentas en redes sociales y obligará a las plataformas a aplicar una verificación estricta de la edad o enfrentarse a sanciones económicas.
La medida se vio impulsada por datos que muestran que el 75% de los niños de primaria en Grecia utilizaba redes sociales, mientras que alrededor del 48% de los adolescentes declaraba efectos negativos en su salud mental.
El apoyo público también alcanzó niveles elevados, con un 80% a favor de la prohibición tras el veredicto en Estados Unidos de marzo de 2026 que responsabilizó a las grandes plataformas tecnológicas por el diseño adictivo de sus aplicaciones. Basándose en el éxito de la prohibición de smartphones en escuelas en Grecia en 2024, el Gobierno citó a estudiantes "ausentes" y la falta de sueño como detonantes de la restricción.
Grecia se suma así a otros países de la UE: Francia aprobó una ley en enero de 2026 para prohibir las redes sociales a menores de 15 años, aludiendo a una "emergencia sanitaria" y a la necesidad de proteger a los menores del ciberacoso y del daño psicológico. En febrero de 2026, España anunció planes para una prohibición a menores de 16 años con el objetivo de "domar el salvaje oeste digital", mientras que Austria, Dinamarca y Eslovenia están elaborando restricciones para menores de 14, 15 y 15 años, respectivamente.
Italia e Irlanda están explorando prohibiciones para menores de 15 y 16 años, respectivamente, mientras que Alemania y otros países debaten límites de edad o "versiones juveniles" de las plataformas. Estas iniciativas están impulsadas por el aumento de los problemas de salud mental y por el deseo de exigir responsabilidades a las grandes tecnológicas por el diseño adictivo de sus plataformas, siguiendo el precedente marcado por Australia con la primera prohibición del mundo para menores de 16 años en 2025.
Las fechas de nacimiento autodeclaradas no son eficaces. La implementación se ha realizado mediante sistemas como carteras digitales o tokens de identidad, pero la nueva aplicación de verificación de edad de la Comisión Europea "permitirá a los usuarios demostrar su edad al acceder a plataformas online, igual que las tiendas piden una prueba de edad a quienes compran alcohol", según Ursula von der Leyen.
Las plataformas tienen la responsabilidad principal, y los reguladores nacionales garantizan el cumplimiento mediante supervisión y sanciones. Aunque normas a escala de la UE como la Ley de Servicios Digitales (DSA) y el Reglamento General de Protección de Datos (RGPD) establecen protecciones básicas para los menores, las prohibiciones nacionales van más allá al fijar límites de edad estrictos y aumentar la rendición de cuentas de las empresas tecnológicas.
Sin embargo, figuras políticas contrarias, como miembros del partido español Vox y legisladores italianos, consideran que estas prohibiciones suponen una intervención excesiva del Estado y sostienen que la educación, el control parental y la alfabetización digital serían más eficaces que las restricciones totales.
Esta visión también la comparten defensores de los derechos de los consumidores. Olivia Brown, responsable de políticas del grupo global Euroconsumers, considera que las prohibiciones generalizadas son un atajo político que exime de responsabilidad a las plataformas.
"Prohibir las redes sociales no hace que internet sea más seguro. Solo desplaza el problema fuera de la vista. Lo que necesitan los menores es seguridad integrada en el diseño de las plataformas, controles reales para los usuarios y algoritmos que puedan moldear por sí mismos, no puertas que simplemente se cierran de golpe para abrirse de par en par en cuanto cumplen 18 años".
Avances hacia una regulación a escala de la UE
La cuestión es políticamente sensible, y una prohibición a nivel europeo corre el riesgo de agravar la polarización. En su lugar, la Comisión está lanzando primero la aplicación de verificación de edad como herramienta para que los Estados miembros apliquen sus propias prohibiciones nacionales.
Concebida inicialmente en 2025, la aplicación está diseñada como un marco técnico que puede integrarse en carteras digitales nacionales o en aplicaciones independientes para verificar la edad de los usuarios. Para confirmarla, los usuarios deben descargar una app, dar su consentimiento para el uso de datos, escanear un documento de identidad (incluido su chip) y completar un reconocimiento facial. Este proceso podría tener que repetirse periódicamente, y las plataformas podrían exigir la verificación cada vez que se acceda a servicios restringidos por edad.
Surgen preocupaciones por su complejidad, sus implicaciones para la privacidad, la facilidad para eludirla (por ejemplo, mediante VPN) y el temor a que desplace la responsabilidad desde las plataformas, a diferencia de otras herramientas regulatorias de ámbito europeo.
Una de ellas es el RGPD, adoptado en 2016 y aplicado entre 2018 y 2020, que establece normas estrictas sobre los datos de los menores y fija la edad predeterminada de consentimiento digital en 16 años (con flexibilidad hasta los 13), exigiendo la aprobación de los padres para los usuarios más jóvenes.
La Directiva revisada de Servicios de Comunicación Audiovisual, en vigor desde 2020, introdujo sistemas de clasificación por edades y controles parentales en plataformas de streaming, junto con prohibiciones estrictas de contenidos perjudiciales, como el material de explotación infantil. Posteriormente, en 2021, la UE lanzó su estrategia más amplia de seguridad infantil en internet, que combina financiación, investigación y códigos de conducta voluntarios para abordar riesgos como el 'grooming' y la desinformación.
Más recientemente, la Comisión ha propuesto medidas prácticas como cuentas privadas por defecto para menores y límites a funciones adictivas como la reproducción automática y el 'scroll' infinito. Partes de la Ley de IA, con prohibiciones en vigor desde febrero de 2025, prohíben específicamente sistemas que utilizan técnicas subliminales o explotan la vulnerabilidad de los niños para distorsionar su comportamiento. La Ley de Equidad Digital, cuya propuesta formal se espera a finales de 2026, endurecerá las normas de diseño de plataformas al prohibir los "patrones oscuros" y funciones adictivas como el 'scroll' infinito.
En el centro de este marco se encuentra la Ley de Servicios Digitales (DSA), una normativa clave para reformar las plataformas online. Propuesta por la Comisión en 2020, fue acordada por el Parlamento Europeo y el Consejo en 2022 y entró en vigor en febrero de 2024 tras una aplicación progresiva.
La DSA obliga a las plataformas a proteger a los usuarios, con especial atención a los menores. Esto incluye configuraciones más seguras por defecto, moderación de contenidos y restricciones a la publicidad dirigida. También establece un nuevo sistema de supervisión con coordinadores nacionales de servicios digitales y control a nivel de la UE.
Tras la DSA, los ciudadanos europeos han visto una mayor transparencia, derechos de usuario más sólidos y límites a prácticas perjudiciales o abusivas. Los usuarios cuentan ahora con mecanismos más claros para denunciar y recurrir decisiones sobre contenidos, mientras que los menores se benefician de una mayor protección de la privacidad y una menor exposición a publicidad personalizada.
El impacto en las plataformas digitales
Las restricciones de edad en redes sociales afectan de forma significativa al público adolescente: las empresas pierden un grupo clave que impulsa la actividad online, lo que reduce las impresiones publicitarias y los ingresos por tráfico.
Las plataformas dependen en gran medida de adolescentes y niños para sus ingresos publicitarios. Los límites de edad pueden reducirlos, al disminuir el número de usuarios jóvenes y dificultar su segmentación publicitaria.
Los costes de cumplimiento pueden aumentar, ya que las empresas deben mejorar los sistemas de verificación de edad y los procesos de consentimiento parental. Estos son costosos y complejos debido a la necesidad de tecnologías avanzadas de verificación de identidad y protección de datos.
La prohibición de funciones de diseño adictivo y algoritmos de interacción en redes sociales obliga a rediseñar los productos, lo que incrementa los costes de ingeniería y retrasa los lanzamientos en el mercado europeo. El cambio hacia contenidos más seguros también puede tensionar los presupuestos.
Según Christel Schaldemose, las grandes empresas deben desarrollar "nuevas plataformas con un modelo de negocio completamente distinto que proteja a los menores".
Las empresas también pueden enfrentarse a mayores riesgos legales en caso de incumplimiento. El Parlamento ha propuesto responsabilizar personalmente a los propietarios de plataformas por infracciones graves y reiteradas de las normas de protección de menores. "Son quienes ponen las plataformas a disposición. Si acordamos un límite de edad, la responsabilidad recae claramente en las empresas en caso de incumplimiento", declaró Schaldemose a 'Euronews'.
Europa necesita acelerar
Para Christel Schaldemose, la Comisión está actuando con demasiada lentitud. Anunció el panel en septiembre, pero no empezó a trabajar hasta marzo. Algunos Estados miembros ya se oponen, según se informa, a la aplicación. "Cuanto más tarde la Comisión en presentar una propuesta, más probable será que tengamos un mercado fragmentado y lagunas legales", afirmó.
"Me he vuelto impaciente con la Comisión. Parece que los Estados miembros también lo están, porque están presionando", añadió Schaldemose. Las cuestiones de privacidad y de intercambio de datos ya no pueden ser una excusa. "En los últimos dos años hemos desarrollado herramientas que no comprometen los datos personales ni la seguridad", subrayó.
El Parlamento seguirá presionando hasta que la Comisión encuentre una solución razonable. "Tenemos que actuar a nivel europeo, y el Parlamento lo tiene claro", concluyó Schaldemose.