This content is not available in your region

Cuatro niveles de riesgo para la IA en la propuesta de legislción europea

Access to the comments Comentarios
Por Aida Sanchez Alonso
euronews_icons_loading
"Museum of Me" exhibition, in which the posts of the visitor's Instagram account are analysed through artificial intellig
"Museum of Me" exhibition, in which the posts of the visitor's Instagram account are analysed through artificial intellig   -   Derechos de autor  MAURO PIMENTEL/AFP

¿Cómo impulsar la inteligencia artificial protegiendo los derechos de los ciudadanos? La Comisión Europea ha presentado una propuesta legislativa para regular el sector que incluye la prohibición de utilizar sistemas de identificación biométrica en espacios públicos.

La Inteligencia Artificial permite a las máquinas analizar y aprender del entorno y tomar decisiones para alcanzar objetivos específicos. Esto tiene algunos riesgos y es por eso que la vicepresidenta de la Comisión Europea, Margrethe Vestager, quiere abordarlos para aumentar la "confianza" de los ciudadanos en la IA.“Nuestra propuesta de marco legal no considera la IA como una tecnología en sí misma, sino que analiza para qué se utiliza y cómo se utiliza la IA. Se necesita un enfoque proporcional y basado en el riesgo con una lógica simple: cuanto mayor sea el riesgo que un uso específico de la IA pueda causar en nuestras vidas, más estricta será la ley", ha detallado Vestager.

La Comisión propone establecer 4 categorías de riesgo para las tecnologías de IA:

Riesgo mínimo: estos son la mayoría de ellas y serán de uso libre. Ej. filtros de spam

Riesgo limitado: los ciudadanos deben ser conscientes de que interactúan con una IA. Ej. Chatbot

Alto riesgo: Tendrán obligaciones estrictas, como supervisión humana y el uso de datos de alta calidad para evitar la discriminación. Ej. Los sistemas para otorgar créditos

Riesgo inaceptable: estos sistemas estarán prohibidos. Ej: puntuación social de los gobiernos

Aunque se permitirán algunas excepciones a la identificación biométrica cuando sea estrictamente necesario. Como en la búsqueda de menores desaparecidos o para prevenir una amenaza terrorista específica e inminente.

"Si hablamos, por ejemplo, del caso del reconocimiento facial, puede haber algunos usos positivos para eso, por ejemplo, desbloquear el teléfono, que es algo que hago unas cien veces al día y que conlleva un riesgo mucho menor que si va a utilizarse ampliamente en espacios públicos para identificar a las personas. Así que aquí lo que tenemos que hacer es leer el contexto, el propósito del uso de la IA", ha detallado Thomas Boué, director general de BSA, The Software Alliance.

Pasarán años hasta que la propuesta entre en vigor. Pero la Comisión espera que marque el camino a nivel mundial, como ha sucedido con la ley de protección de datos.