Reacción a la Ley de Inteligencia Artificial de la UE: Los expertos coinciden en que que la primera norma del mundo es "histórica" aunque corta

El logotipo de OpenAI aparece en un teléfono móvil con una imagen en la pantalla de un ordenador generada por el modelo Dall-E de conversión de texto en imagen de ChatGPT.
El logotipo de OpenAI aparece en un teléfono móvil con una imagen en la pantalla de un ordenador generada por el modelo Dall-E de conversión de texto en imagen de ChatGPT. Derechos de autor Michael Dwyer/AP Photo
Derechos de autor Michael Dwyer/AP Photo
Por Pascale Davies
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button
Este artículo se publicó originalmente en inglés

En primicia mundial, la UE ha aprobado una normativa para regular la inteligencia artificial, pero mientras algunos sostienen que no va lo suficientemente lejos, otros afirman que podría perjudicar a las empresas con "restricciones adicionales".

PUBLICIDAD

Los responsables políticos europeos se han apresurado a elaborar normas y advertencias a las empresas tecnológicas desde el lanzamiento del ChatGPT y la semana pasada ha sido monumental para establecer las normas de la UE sobre inteligencia artificial (IA).

El miércoles, el Parlamento Europeo aprobó la Ley de Inteligencia Artificial, que adopta un enfoque basado en el riesgo para garantizar que las empresas lanzan productos que cumplen la ley antes de ponerlos a disposición del público.

Un día después, la Comisión Europea pidió a Bing, Facebook, Google Search, Instagram, Snapchat, TikTok, YouTube y X, en virtud de otra legislación, que detallaran cómo están haciendo frente a los riesgos de la IA generativa.

Aunque a la UE le preocupan sobre todo los efectos de la IA (cuando los modelos cometen errores e inventan cosas), la difusión viral de 'deepfakes' y la manipulación automatizada de la IA que podría inducir a error a los votantes en las elecciones, la comunidad tecnológica tiene sus propias quejas con la legislación, mientras que algunos investigadores afirman que no va lo suficientemente lejos.

Monopolios tecnológicos

Aunque Bruselas merece un "verdadero reconocimiento" por ser la primera jurisdicción del mundo en aprobar una normativa que mitiga los numerosos riesgos de la IA, el acuerdo final presenta varios problemas, según Max von Thun, director para Europa del Open Markets Institute.

Hay "importantes lagunas jurídicas para las autoridades públicas" y "una regulación relativamente débil de los modelos de base más grandes que plantean los mayores daños", dijo a 'Euronews Next'.

Los modelos fundacionales son modelos de aprendizaje automático que se entrenan con datos y pueden utilizarse para realizar una serie de tareas, como escribir un poema, por ejemplo. ChatGPT es un modelo fundacional. Sin embargo, la mayor preocupación de von Thun son los monopolios tecnológicos.

"La Ley de Inteligencia Artificial es incapaz de abordar la principal amenaza que plantea actualmente: su papel en el aumento y afianzamiento del poder extremo que unas pocas empresas tecnológicas dominantes ya tienen en nuestras vidas personales, nuestras economías y nuestras democracias", afirmó.

Asimismo, dijo que la Comisión Europea debería ser cautelosa con los abusos monopolísticos en el ecosistema de la IA.

"La UE debería entender que la escala de los riesgos que plantea la IA está inextricablemente ligada a la escala y el poder de las empresas dominantes que desarrollan y despliegan estas tecnologías. No se puede hacer frente con éxito a lo primero hasta que no se aborde lo segundo", afirmó von Thun.

La amenaza de los monopolios de IA saltó a la palestra el mes pasado tras conocerse que la empresa francesa Mistral AI se asociaba con Microsoft. Para algunos miembros de la UE fue una sorpresa, ya que Francia había presionado para que se hicieran concesiones a la Ley de Inteligencia Artificial en favor de empresas de código abierto como Mistral.

Arthur Mensch, cofundador y CEO de Mistral AI.
Arthur Mensch, cofundador y CEO de Mistral AI.Toby Melville/Pool Photo via AP, File

Momento histórico

Pero varias 'start-ups' celebraron la claridad que aporta el nuevo reglamento. "La aprobación definitiva de la Ley de Inteligencia Artificial por el Parlamento Europeo es un momento histórico y un alivio", declaró Alex Combessie, cofundador y consejero delegado de la empresa francesa de inteligencia artificial de código abierto Giskard.

Aunque la Ley impone restricciones y normas adicionales a los desarrolladores de sistemas de IA y modelos de base de alto riesgo, considerados "riesgos sistémicos", confiamos en que estos controles y equilibrios puedan aplicarse eficazmente", aseguró a 'Euronews Next'.

"Este momento histórico allana el camino hacia un futuro en el que la IA se utilice de forma responsable, fomentando la confianza y garantizando la seguridad de todos", añadió.

La legislación funciona distinguiendo los riesgos que plantean los modelos fundacionales, que se basan en la potencia de cálculo que los entrena. Los productos de IA que superan el umbral de potencia de cálculo se regularán de forma más estricta. La clasificación se considera un punto de partida y, al igual que otras definiciones, puede ser revisada por la Comisión.

Bien público

Pero no todo el mundo está de acuerdo con la clasificación. "Desde mi punto de vista, los sistemas de IA utilizados en el espacio de la información deberían clasificarse como de alto riesgo, lo que les obligaría a cumplir normas más estrictas, algo que no ocurre explícitamente en la Ley de IA de la UE aprobada", afirmó Katharina Zügel, responsable de políticas del Foro sobre Información y Democracia.

"La Comisión, que tiene la capacidad de modificar los casos de uso de los sistemas de alto riesgo, podría mencionar explícitamente los sistemas de IA empleados en el espacio de la información como de alto riesgo teniendo en cuenta su impacto en los derechos fundamentales", dijo a 'Euronews Next'.

"Las empresas privadas no pueden ser las únicas que dirijan nuestro futuro común. La IA debe ser un bien público", añadió. Pero otros sostienen que las empresas también tienen que dar su opinión y poder colaborar con la UE.

PUBLICIDAD

"Es vital que la UE aproveche el dinamismo del sector privado, que será la fuerza motriz del futuro de la IA. Hacerlo bien será importante para que Europa sea más competitiva y atractiva para los inversores", explicó Julie Linn Teigland, socia directora de EY para Europa, Oriente Medio, India y África (EMEIA).

Sin embargo, señaló que las empresas de la UE y de fuera de ella deben ser proactivas y prepararse para la entrada en vigor de la ley, lo que significa "tomar medidas para asegurarse de que disponen de un inventario actualizado de los sistemas de IA que están desarrollando o desplegando, y determinar su posición en la cadena de valor de la IA para entender sus responsabilidades legales".

Sabor agridulce

Para las empresas de nueva creación y las pequeñas y medianas empresas, eso podría significar mucho más trabajo. "Esta decisión tiene un sabor agridulce", indicó Marianne Tordeux Bitker, responsable de asuntos públicos de 'France Digitale'.

"Aunque la Ley de IA responde a un reto importante en términos de transparencia y ética, no deja de crear obligaciones sustanciales para todas las empresas que utilicen o desarrollen inteligencia artificial, a pesar de algunos ajustes previstos para las 'start-ups' y las pymes, en particular a través de sandboxes regulatorios", prosiguió.

"Tememos que el texto simplemente creará barreras regulatorias adicionales que beneficiarán a la competencia estadounidense y china, y reducirá nuestras oportunidades para que surjan campeones europeos de IA", abundó.

PUBLICIDAD
El logotipo de OpenAI se muestra en un teléfono celular con una imagen en un monitor generado por el modelo de texto a imagen Dall-E de ChatGPT.
El logotipo de OpenAI se muestra en un teléfono celular con una imagen en un monitor generado por el modelo de texto a imagen Dall-E de ChatGPT.AP Photo/Michael Dwyer, File

Aplicación efectiva

Pero aunque la Ley de Inteligencia Artificial sea un hecho, su aplicación es el siguiente reto. "Ahora hay que centrarse en su aplicación y cumplimiento efectivos. Esto también requiere una atención renovada a la legislación complementaria", dijo a 'Euronews Next' Risto Uuk, responsable de investigación sobre la UE en el Future of Life Institute, una organización sin ánimo de lucro.

Esta legislación complementaria incluye la Directiva de Responsabilidad de la IA, destinada a ayudar en las reclamaciones de responsabilidad por daños causados por productos y servicios habilitados para la IA, y la Oficina de IA de la UE, cuyo objetivo es racionalizar la aplicación de las normas.

"La clave para que la ley valga lo que cuesta es que la Oficina de Inteligencia Artificial disponga de recursos para realizar las tareas que se le han encomendado y que los códigos de buenas prácticas para la inteligencia artificial de uso general estén bien redactados y cuenten con la participación de la sociedad civil".

Compartir esta noticiaComentarios

Noticias relacionadas

El Parlamento Europeo aprueba la Ley de IA por abrumadora mayoría

Los organizadores de los Juegos Olímpicos desvelan su estrategia sobre el uso de la IA en el deporte

La Cámara de Representantes de Estados Unidos vota sí a prohibir TikTok