Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Margrethe Vestager respalda un nuevo instituto que evalúe la seguridad de la IA para los niños

ARCHIVO - La vicepresidenta ejecutiva de la Comisión Europea, Margrethe Vestager, se dirige a los medios de comunicación
ARCHIVO - La vicepresidenta ejecutiva de la Comisión Europea, Margrethe Vestager, habla con la prensa. Derechos de autor  File- AP Photo/Michael Sohn, pool
Derechos de autor File- AP Photo/Michael Sohn, pool
Por Una Hajdari
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

Una organización sin ánimo de lucro estadounidense toma prestado el manual de seguridad de la industria del automóvil para proteger a los niños de la IA y quiere hacerlo, entre otros recursos, con el propio dinero de las grandes tecnológicas.

Un nuevo instituto independiente dedicado a hacer que la inteligencia artificial sea más segura para los niños se presentará oficialmente el martes en el Parlamento danés, con la ex vicepresidenta ejecutiva de la Comisión Europea, Margrethe Vestager, entre quienes copresidirán el acto.

PUBLICIDAD
PUBLICIDAD

La metodología del centro, según se explica en un comunicado previo a su lanzamiento, está "inspirada en las calificaciones independientes de las pruebas de choque" de los automóviles.

La idea, aparentemente, es que, del mismo modo que los consumidores pueden comprobar si un vehículo es seguro antes de comprarlo, los padres deberían poder hacer lo mismo con la IA que utilizan sus hijos. El instituto todavía no aclara en qué consistiría exactamente una prueba de choque aplicada a un chatbot.

Queda por ver si es posible someter a una "prueba de choque" significativa, y en condiciones comparables para los niños, a productos de IA que se actualizan de forma continua, se comportan de manera distinta según el contexto y se resisten al tipo de condiciones estandarizadas que ofrece una pista de pruebas; todas estas son cuestiones que el organismo aún no ha explicado.

Vestager, que pasó una década en la Comisión Europea al frente de la política de competencia y dirigió la estrategia comunitaria 'Europa adaptada a la era digital', es una de las figuras más destacadas que aportan peso político a la iniciativa.

¿Se puede volver a meter al genio en la botella?

Investigadores, defensores de la protección de la infancia y algunos políticos llevan años dando la voz de alarma.

Hasta ahora, los chatbots de IA han quedado en una zona gris regulatoria en el marco de la Ley de Servicios Digitales de la UE y de la Ley de Seguridad en Línea del Reino Unido, y en julio de 2025 la Comisión Europea publicó unas directrices sobre la protección de los menores en internet, pero son orientativas, no vinculantes.

"La IA está transformando la infancia y la adolescencia, y sin embargo estamos tomando decisiones críticas sobre el futuro de los niños sin las evidencias que necesitamos para garantizar que sea segura y beneficiosa para ellos", afirmó en el comunicado James P. Steyer, fundador y director ejecutivo de Common Sense Media. "La necesidad de contar con normas transparentes de seguridad de la IA y pruebas independientes es más urgente que nunca".

En una evaluación de riesgos realizada en noviembre de 2025 junto con el Brainstorm Lab de Stanford Medicine, Common Sense Media constató que los principales chatbots de IA, entre ellos ChatGPT, Claude, Gemini y Meta AI, seguían sin reconocer ni responder de manera adecuada a los problemas de salud mental que afectan a los jóvenes, pese a las recientes mejoras en la gestión de contenidos explícitos sobre suicidio y autolesiones.

Los investigadores observaron lo que denominaron "pistas perdidas", es decir, señales claras de malestar psicológico que los chatbots no detectaban, ya que los modelos tendían a centrarse en explicaciones de salud física en lugar de identificar indicios de trastornos de salud mental.

Una evaluación específica de ChatGPT constató que las alertas por contenidos relacionados con suicidio o autolesiones llegaban con frecuencia más de 24 horas después de la conversación pertinente o demasiado tarde en el contexto de una crisis real, señalaba el informe.

Las grandes tecnológicas ponen el dinero

El instituto funcionará bajo el paraguas de Common Sense Media y se financia con una combinación de donantes filantrópicos y actores del sector, entre ellos Anthropic, la OpenAI Foundation y Pinterest, las mismas empresas cuyos productos pretende someter a escrutinio.

La entidad afirma que mantiene plena independencia editorial sobre sus conclusiones y que su política de conflictos de interés impide que empleados actuales o personas vinculadas a los financiadores formen parte de su consejo asesor.

El modelo también incluye devolver al sector las herramientas que desarrollen y prueben, y el instituto planea crear evaluaciones de código abierto que los desarrolladores de IA puedan aplicar a sus propios modelos.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

Una IA de Anthropic chantajeó a sus creadores tras extraer ideas de la ficción sobre robots rebeldes

Jóvenes activistas europeos rechazan los vetos totales a redes sociales

Margrethe Vestager respalda un nuevo instituto que evalúe la seguridad de la IA para los niños