Cuatro niveles de riesgo para la IA en la propuesta de legislción europea

"Museum of Me" exhibition, in which the posts of the visitor's Instagram account are analysed through artificial intellig
"Museum of Me" exhibition, in which the posts of the visitor's Instagram account are analysed through artificial intellig Derechos de autor MAURO PIMENTEL/AFP
Derechos de autor MAURO PIMENTEL/AFP
Por Aida Sanchez Alonso
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button
Copia/pega el link embed del vídeo de abajo:Copy to clipboardCopied

La Comisión Europea establece cuatro niveles de riesgo para la Inteligencia Artificial en su primera propuesta legislativa para el sector.

PUBLICIDAD

¿Cómo impulsar la inteligencia artificial protegiendo los derechos de los ciudadanos? La Comisión Europea ha presentado una propuesta legislativa para regular el sector que incluye la prohibición de utilizar sistemas de identificación biométrica en espacios públicos.

La Inteligencia Artificial permite a las máquinas analizar y aprender del entorno y tomar decisiones para alcanzar objetivos específicos. Esto tiene algunos riesgos y es por eso que la vicepresidenta de la Comisión Europea, Margrethe Vestager, quiere abordarlos para aumentar la "confianza" de los ciudadanos en la IA.“Nuestra propuesta de marco legal no considera la IA como una tecnología en sí misma, sino que analiza para qué se utiliza y cómo se utiliza la IA. Se necesita un enfoque proporcional y basado en el riesgo con una lógica simple: cuanto mayor sea el riesgo que un uso específico de la IA pueda causar en nuestras vidas, más estricta será la ley", ha detallado Vestager.

La Comisión propone establecer 4 categorías de riesgo para las tecnologías de IA:

Riesgo mínimo: estos son la mayoría de ellas y serán de uso libre. Ej. filtros de spam

Riesgo limitado: los ciudadanos deben ser conscientes de que interactúan con una IA. Ej. Chatbot

Alto riesgo: Tendrán obligaciones estrictas, como supervisión humana y el uso de datos de alta calidad para evitar la discriminación. Ej. Los sistemas para otorgar créditos

Riesgo inaceptable: estos sistemas estarán prohibidos. Ej: puntuación social de los gobiernos

Aunque se permitirán algunas excepciones a la identificación biométrica cuando sea estrictamente necesario. Como en la búsqueda de menores desaparecidos o para prevenir una amenaza terrorista específica e inminente.

"Si hablamos, por ejemplo, del caso del reconocimiento facial, puede haber algunos usos positivos para eso, por ejemplo, desbloquear el teléfono, que es algo que hago unas cien veces al día y que conlleva un riesgo mucho menor que si va a utilizarse ampliamente en espacios públicos para identificar a las personas. Así que aquí lo que tenemos que hacer es leer el contexto, el propósito del uso de la IA", ha detallado Thomas Boué, director general de BSA, The Software Alliance.

Pasarán años hasta que la propuesta entre en vigor. Pero la Comisión espera que marque el camino a nivel mundial, como ha sucedido con la ley de protección de datos.

Compartir esta noticiaComentarios

Noticias relacionadas

La Inteligencia Artificial en la sanidad aspira a ser proactiva

¿Podemos confiar en la inteligencia artificial para solucionar los problemas climáticos?

Semana Europea: La ira antidemocrática se expande por Europa