Junto a un abanico de tendencias, términos y contenido “brain rot”, en 2025 las redes sociales lidiaron con leyes de restricción por edad, contenido de IA y creciente desconfianza de los usuarios.
A medida que termina otro año, muchos nos prepararemos para una avalancha de Reels reflexivos en Instagram, logros cuidadosamente filtrados y propósitos para pasar menos tiempo haciendo 'doomscroll'.
Las redes sociales siguen siendo una fuerza dominante en nuestras vidas, una forma de medir nuestros éxitos, conectar con otros y seguir la actualidad y las tendencias. Incluso han reconfigurado el lenguaje que usamos, y muchas de las palabras de 2025 en los diccionarios vienen de las redes: rage bait, parasocial y AI slop, entre otras.
Desde la irrupción de la inteligencia artificial (IA), además, se ha producido un cambio notable en cómo la gente usa y percibe las redes. La desinformación creciente ha generado desconfianza y una sensación de desengaño que se refleja en el uso de las plataformas.
Aunque Facebook sigue siendo la más popular, según la empresa de marketing en motores de búsqueda Semrush, aplicaciones impulsadas por la comunidad como Reddit y Discord continúan creciendo a medida que la gente busca espacios en línea más significativos, íntimos y auténticos.
Al mismo tiempo, los reguladores siguen navegando las tensiones entre un internet abierto y la seguridad en línea, lo que hace que 2025 parezca un punto de inflexión para el funcionamiento de las empresas de redes sociales.
De las leyes de verificación de edad a las grandes polémicas en torno al chatbot Grok de Elon Musk, estos son algunos de los grandes temas de conversación del año en redes sociales.
Prohibiciones en redes sociales y protección de menores
El diez de diciembre, Australia aplicó una medida pionera, la prohibición de las redes sociales para los menores de 16 años. Esto significa que los niños ya no pueden acceder a cuentas en plataformas como Instagram, Snapchat, TikTok, YouTube, X y Facebook, todas ellas expuestas a cuantiosas multas si vulneran la ley.
Aunque pueda parecer extremo, la medida refleja la creciente preocupación por el daño de las redes a la salud mental de los jóvenes, y la Organización Mundial de la Salud (OMS) señala que uno de cada diez adolescentes ha sufrido consecuencias negativas por su uso.
Dinamarca ha anunciado planes para seguir el mismo camino, y propone bloquear el acceso a las redes a los menores de 15 salvo que los padres completen una evaluación específica. Otros países, entre ellos España, Grecia y Francia, también reclaman medidas de protección similares.
Mientras tanto, se implantaron estrictas leyes de verificación de edad en julio bajo la Ley de Seguridad en Línea del Reino Unido, que impiden a los menores ver contenido para adultos o cualquier cosa que pueda fomentar comportamientos peligrosos.
La eficacia de estas nuevas leyes está por ver, algunos expertos mantienen el escepticismo, pero ya se escuchan formas creativas con las que los adolescentes intentan saltarse las normas. Muchos recurren a aplicaciones de mensajería como WhatsApp o incluso compran máscaras de malla con apariencia adulta para intentar engañar al reconocimiento facial.
'AI slop', deepfakes y la expansión de la desinformación
2025 fue el año en que el 'AI slop' se adueñó de todo. El término, que alude a las imágenes y vídeos falsos creados con herramientas de IA generativa como Sora, de OpenAI, ha inundado nuestros feeds con absurdos de baja calidad como cachorros que se transforman en rollos de canela, gatos detenidos o los extrañamente populares memes de 'Italian brain rot'.
Aunque parezca inofensivo, ha hecho aún más difícil conectar con contenidos reales creados por personas. En ocasiones, también ha propiciado la proliferación de estafas y desinformación, incluso por parte de políticos. El presidente de Estados Unidos, Donald Trump, sigue siendo uno de los peores infractores, y llegó a compartir imágenes generadas por IA en las que la cantante Taylor Swift lo respaldaba.
La IA también se ha utilizado para multiplicar la creación de deepfakes, vídeos que imitan el rostro, el cuerpo o la voz de una persona para difundir información falsa. Un ejemplo fue un vídeo fabricado y publicado en TikTok que mostraba a una mujer en un programa de televisión confesando un fraude de prestaciones, que medios como 'Fox News' cubrieron por error.
Para intentar atajar esto, plataformas como Meta y TikTok han empezado a etiquetar cualquier contenido generado por IA. Aun así, la magnitud a la que se produce hace difícil aplicar la norma de forma efectiva, y un informe de junio del consejo interno de supervisión de Meta concluyó que su etiquetado era "inconsistente".
El chatbot de Elon Musk y el discurso de odio
Muchas de las grandes plataformas de redes sociales han integrado asistentes de IA en sus servicios, que ofrecen apoyo automatizado para crear contenidos, realizar búsquedas y atender consultas de atención al cliente. Sin embargo, el chatbot Grok de Elon Musk es el que más controversia ha generado este año.
Desarrollado por xAI, la empresa del magnate tecnológico, Grok fue noticia en julio por elogiar a Adolf Hitler y por acusar a una cuenta automatizada con apellido judío de celebrar la muerte de niños blancos en las inundaciones del centro de Texas.
Entonces, Musk respondió que la herramienta de IA era "demasiado complaciente y fácil de manipular", un problema que "se estaba abordando". Aun así, Grok ha seguido difundiendo respuestas preocupantes, incluidas teorías de la conspiración antisemitas y consejos sobre cómo acosar a personas.
Regulación más estricta y responsabilidad algorítmica
La regulación de los espacios en línea se ha endurecido este año, con la entrada en vigor de la Ley de Seguridad en Línea del Reino Unido, que exige más transparencia y responsabilidad a las empresas de redes sociales.
La Ley de Servicios Digitales (DSA) de la UE impuso además su primera multa, de 120 millones de euros, a X, de Elon Musk. La política publicitaria de la plataforma y las insignias azules, antes utilizadas para señalar una cuenta verificada pero ahora vendidas a cualquiera, incumplían la normativa europea por falta de claridad.
TikTok también fue multada con 530 millones de euros por la Comisión de Protección de Datos de Irlanda (DPC) en mayo, por no proteger los datos personales de usuarios de la UE durante una transferencia a China.
Las ingentes cantidades de datos y poder que manejan las plataformas, junto con las preocupaciones mencionadas sobre su posible impacto nocivo, hacen prever que el escrutinio legislativo se intensifique aún más en 2026.