This content is not available in your region

¿Qué es la Inteligencia Artificial y cómo planea la UE regularla?

Access to the comments Comentarios
Por Aida Sanchez Alonso
¿Qué es la Inteligencia Artificial y cómo planea la UE regularla?
Derechos de autor  Martin Meissner/Copyright 2019 The Associated Press. All rights reserved.

Recibir una recomendación de una película en tu plataforma de vídeo a demanda favorita, desbloquear el móvil con la cara, usar el autocorrector o mensajerarse con un chatbot. Todos esos son ejemplos cotidianos del uso de la inteligencia artificial (IA). A pesar de que suene futurista, la IA es algo que los ciudadanos europeos utilizan y con lo que interactúan a diario. Sus posibilidades pueden ser infinitas, pero los riesgos también son importantes.

"El potencial de utilizar la IA de manera beneficiosa, menos contaminación, mejor atención médica, mejores oportunidades, mejor educación y más formas de permitir que los ciudadanos se involucren en la sociedad", afirma la vicepresidenta de la Comisión Europea, Margrethe Vestager.

Las posibilidades pueden abarcar cualquier ámbito. "También para luchar contra el terrorismo y la delincuencia y potenciar la ciberseguridad", ha insistido Vestager en un debate en la Comisión Especial de Inteligencia Artificial del Parlamento Europeo. Y aquí es donde entran en juego los riesgos. Esta es una de las razones por las que la Comisión Europea fue el primer organismo en proponer una regulación sobre IA en todo el mundo.

Empecemos por el principio, ¿qué es la IA?

La Inteligencia Artificial es una tecnología que permite a las máquinas percibir, analizar y aprender del entorno. Gracias a toda esta información pueden predecir y tomar sus propias decisiones para alcanzar metas específicas. Hay muchas aplicaciones para la IA, por ejemplo, se puede utilizar con fines médicos como identificar el riesgo de padecer Alzheimer, para la agricultura o para rastrear a los empleados mientras trabajan de forma remota.

Pero debido a que la IA recopila enormes cantidades de datos y utiliza información que replica algunos de los sesgos existentes en la sociedad, tiene muchos riesgos. Por ejemplo, puede poner en peligro la privacidad, poner riesgo los derechos fundamentales o aumentar la discriminación a las minorías.

¿Cuál es la postura actual de la UE sobre la inteligencia artificial?

"Cuanto mayor es el riesgo que un uso específico de la IA puede ocasionar en nuestras vidas, más estricta es la norma", estas fueron las palabras que utilizó Vestager el pasado mes de abril para definir la base de la propuesta de la Comisión Europea para la Inteligencia Artificial. El texto divide las distintas IA en cuatro categorías en función del riesgo que puedan representar para los ciudadanos.

El riesgo mínimo son aquellas tecnologías que presentan un riesgo mínimo o nulo para los ciudadanos, por lo tanto, serán de uso libre y las nuevas reglas no se les aplicarán. Por ejemplo, filtros de spam.

La categoría de riesgo limitado tendrá obligaciones de transparencia para que los ciudadanos sepan que están interactuando con una máquina y, por lo tanto, les permitirá tomar decisiones informadas. Un ejemplo son los chatbots.

El alto riesgo es donde se situan los usos de la IA como el reconocimiento facial, los procedimientos legales y las aplicaciones de clasificación de CVs. Es controvertido ya que puede ser potencialmente dañino o tener implicaciones que afecten negativamente a sus usuarios. Por tanto, la Comisión espera que esos sistemas sean "evaluados cuidadosamente antes de ser comercializados y durante todo su ciclo de vida".

Inaceptable es la última categoría. Aquí es donde la Comisión Europea trazó la línea y deja fuera todos los sistemas de IA que son "una clara amenaza para la seguridad, los medios de vida y los derechos de las personas". Un ejemplo puede ser la puntuación social de los gobiernos o el uso de técnicas subliminales.

Pero para Sarah Chander, asesora sénior de políticas de European Digital Rights (EDRi), la propuesta de la Comisión Europea "corre el riesgo de permitir una vigilancia realmente invasiva y sistemas de inteligencia artificial discriminatorios que, en cambio, deberían prohibirse por completo". Algunos de sus ejemplos incluyen tecnologías para desplegar drones en fronteras o aplicaciones para evaluar a los beneficiarios de servicios sociales.

Mientras tanto, el Parlamento Europeo votó recientemente en contra de la vigilancia masiva en un informe no vinculante. "Nos oponemos claramente a la vigilancia predictiva basada en el uso de IA, así como a cualquier procesamiento de datos biométricos que conduzca a una vigilancia masiva", dijo el eurodiputado Petar Vitanov, a cargo del texto.

¿El reconocimiento facial será una realidad en la Unión Europea?

El reconocimiento facial por motivos de seguridad es uno de los temas más polémicos cuando se trata de la regulación de la IA. Un estudio reciente encargado por Los Verdes en el Parlamento Europeo muestra que de los 27 Estados miembros, 11 ya utilizan Inteligencia Artificial. Alemania, Francia, Hungría, Holanda o Finlandia son algunos de los ejemplos.

Para la Comisión es un uso de alto riesgo. Pero en el Parlamento Europeo, las opiniones están divididas. Mientras algunos piden una prohibición total, otros tienen una visión diferente.

"Pedimos una moratoria sobre el despliegue de sistemas de reconocimiento facial con fines de aplicación de la ley, ya que la tecnología ha demostrado ser ineficaz y, a menudo, conduce a resultados discriminatorios", dijo Vitanov a mediados de octubre. Pero en rueda de prensa este martes el eurodiputado Axel Voss, ponente de otro texto sobre IA, afirmó que "incluso para el reconocimiento facial se pueden establecer salvaguardias para que se pueda utilizar pero no abusar".

El reconocimiento facial no quedará fuera de la legislación. Chander advierte que a la hora de regular, los conflictos puede que no sean a nivel europeo sino a nivel nacional. Si bien cree que ministerios como Innovación son "muy positivos" hacia la "necesidad de una mayor regulación basada en los derechos humanos", la situación no es la misma para los ministerios del Interior. Por lo general son quienes están a cargo de la policía y "tienden a ser más escépticos contra las prohibiciones del reconocimiento facial y la vigilancia predictiva".

¿Se pueden evitar los riesgos de reproducción de sesgos?

Con su propuesta, el objetivo de la Comisión Europea es que los sistemas de IA "no creen ni reproduzcan sesgos". Por lo tanto, los requisitos para los sistemas de IA de alto riesgo deberán ser "robustos" para cumplir con las necesidades.

Pero Chander insiste en que muchos sistemas de IA "aumentarán inherentemente la discriminación debido a la naturaleza misma de su funcionamiento". Según ella misma, utiliza "datos e información del pasado e intenta aplicarlos al futuro". Esto podría reproducir prejuicios y discriminaciones que ya existen en la sociedad.

Y en relación con el daño que podrían causar, Chander ha explicado que la Comisión ha pasado por alto un problema clave: la falta de oportunidades para que los ciudadanos se quejen. Cree que sería importante que haya una forma para que los ciudadanos potencialmente afectados acudan a una autoridad para asegurarse de que se respeten sus derechos.

¿Y qué hay de si se llega a regulación excesiva o a una insuficiente?

Desde el deseo de establecer el estándar mundial hasta el riesgo de una regulación excesiva que rompe la oportunidad de que la tecnología avance. La Unión Europea se enfrenta a un gran desafío con la regulación de la IA. Bruselas espera establecer un estándar global como sucedió con el GDPR.

Para Vestager, los problemas podrían surgir si la UE no puede garantizar su seguridad. "Mi preocupación es que corremos el riesgo de que la tecnología no se desarrolle y utilice tan ampliamente como podría si no somos buenos para mitigar los riesgos relacionados con ella".

Al mismo tiempo, la UE debería encontrar un equilibrio entre el uso estatal de la IA por parte de China y el enfoque de EEUU con directrices voluntarias desarrolladas junto con las grandes empresas de tecnología.