NewsletterNewsletterEventsEventos
Loader

Find Us

InstagramFlipboardLinkedin
Apple storeGoogle Play store
PUBLICIDAD

Los expertos pidieron hace seis meses una pausa en la IA. ¿Dónde estamos ahora?

¿Suponen las máquinas y la IA un riesgo existencial para la humanidad?
¿Suponen las máquinas y la IA un riesgo existencial para la humanidad? Derechos de autor Canva
Derechos de autor Canva
Por Luke Hurst
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button
Este artículo se publicó originalmente en inglés

Los líderes tecnológicos firmaron una carta abierta en la que pedían una pausa en la IA, pero ¿se han tenido en cuenta sus advertencias?

PUBLICIDAD

¿Constituye la inteligencia artificial (IA) un riesgo potencialmente existencial para la humanidad? Esa es la opinión del Future of Life Institute (FLI), que hace seis meses publicó una carta abierta en la que pedía una "pausa inmediata" a los grandes experimentos con IA.

La carta llegó en medio de una oleada de interés público por la IA generativa, cuando aplicaciones como ChatGPT y Midjourney mostraron cómo la tecnología está cada vez más cerca de replicar la capacidad humana en la escritura y el arte.

Para los firmantes de la carta -entre los que se encuentran Elon Musk, consejero delegado de X, Tesla y SpaceX, Steve Wozniak, cofundador de Apple, y el escritor Yuval Noah Harari-, el auge aparentemente repentino de la IA generativa hace necesaria una pausa. Se pidió a empresas como OpenAI de ChatGPT y Google que consideraran los "profundos riesgos para la sociedad y la humanidad" que su tecnología podría estar creando.

Es justo decir que los principales actores no pulsaron el botón de pausa.

En su lugar, más empresas se han unido a la carrera de la IA generativa con sus propios modelos de lenguaje de gran tamaño (LLM), con Meta lanzando Llama 2 y Anthropic mostrando su rival de ChatGPT Claude 2.

Independientemente de que los gigantes tecnológicos hayan hecho caso o no a las advertencias, la carta del FLI marca un hito en lo que se perfila como el año de la IA.

Mark Brakel, director de política del instituto, afirma que no esperaban obtener la respuesta que recibió su carta, una amplia cobertura de prensa y una renovada urgencia en los gobiernos por averiguar qué hacer ante el rápido progreso de la IA.

La carta fue citada en una audiencia del Senado estadounidense y recibió una respuesta formal del Parlamento Europeo.

Brakel explica a Euronews Next que la próxima cumbre mundial sobre seguridad de la IA, que se celebrará en Bletchley Park (Reino Unido), será una buena oportunidad para que los gobiernos den un paso al frente allí donde las empresas se niegan a poner el freno.

Según él, la palabra de moda hasta ahora ha sido "IA generativa", pero pronto podría convertirse en "IA agéntica", en la que la IA pueda realmente tomar decisiones y actuar de forma autónoma.

"Creo que ésa es quizá la línea de tendencia que observamos, y también vemos cómo OpenAI casi ha raspado todo Internet de texto. Estamos empezando a ver vídeos, podcasts y Spotify como fuentes alternativas de datos, vídeo y voz", afirma.

¿Cerca del desastre?

Brakel señala que, aunque "nos hemos convertido un poco en 'la organización de las cartas'", la FLI se fundó en 2014 y ha trabajado en tres grandes áreas de riesgo a nivel civilizacional: IA, biotecnología y armas nucleares.

En su página web hay un vídeo especialmente llamativo, un relato ficticio de una catástrofe mundial de la IA en el año 2032. En medio de las tensiones entre Taiwán y China, la dependencia militar de la IA para la toma de decisiones conduce a una guerra nuclear total, y el vídeo termina con el planeta iluminado con armas nucleares.

Brakel cree que nos hemos acercado a ese tipo de escenario.

"La integración de la IA en el mando y control militar sigue avanzando, especialmente en las grandes potencias. Sin embargo, también observo un mayor deseo de regulación por parte de los Estados, sobre todo en lo que respecta a la autonomía de los sistemas de armas convencionales", afirma.

El próximo año también parece prometedor para la regulación de la autonomía en sistemas como drones, submarinos y tanques, asegura.

"Espero que eso también permita a las grandes potencias llegar a acuerdos para evitar accidentes en el mando y control nuclear, que es un nivel más sensible que el de las armas convencionales".

Regulación inminente

Aunque las grandes empresas de IA no han puesto pausa a su experimentación, sus líderes han reconocido abiertamente los profundos riesgos que la IA y la automatización suponen para la humanidad.

PUBLICIDAD

Sam Altman, consejero delegado de OpenAI, hizo un llamamiento a los políticos estadounidenses a principios de este año para que establecieran una regulación gubernamental de la IA, revelando que sus "peores temores son que nosotros... la industria tecnológica, causemos un daño significativo al mundo". Esto podría ocurrir de "muchas maneras diferentes", añadió. Abogó por la creación de una agencia estadounidense o mundial que conceda licencias a los sistemas de IA más potentes.

Sin embargo, Europa puede convertirse en el líder de la regulación, con la histórica Ley de IA de la Unión Europea en preparación.

Las instituciones de la Unión aún están ultimando los detalles, pero el Parlamento Europeo votó a favor por abrumadora mayoría, con 499 votos a favor, 28 en contra y 93 abstenciones.

De acuerdo con la ley, los sistemas de inteligencia artificial se clasificarán en distintos niveles en función de su nivel de riesgo: los más arriesgados estarán prohibidos y los de riesgo limitado requerirán ciertos niveles de transparencia y supervisión.

"En general, estamos bastante satisfechos con la ley", afirma Brakel. "Una cosa que hemos defendido desde el principio, cuando la Comisión propuso por primera vez la ley, es que tiene que regular los sistemas basados en GPT. En aquel momento hablábamos de GPT3 en lugar de 4 [los modelos de transformador de OpenAI], pero el principio sigue siendo el mismo y nos enfrentamos a muchos grupos de presión de las grandes tecnológicas en contra".

PUBLICIDAD

"La idea es la misma en Estados Unidos que en la UE: que sólo los usuarios de los sistemas de IA, los que los despliegan, saben en qué contexto se utilizan".

Pone el ejemplo de un hospital que utiliza un chatbot para contactar con los pacientes. "Van a comprar el chatbot a OpenAI, no lo van a construir ustedes. Y si luego hay un error del que se te hace responsable porque has dado un consejo médico que no deberías haber dado, entonces está claro que tienes que entender qué tipo de producto has comprado. Y parte de esa responsabilidad debería ser compartida".

Mientras Europa espera la formulación final de la Ley de IA de la UE, la cumbre mundial sobre seguridad de la IA del 1 de noviembre debería ser el próximo acontecimiento que ofrezca una idea de cómo abordarán los líderes de todo el mundo la regulación de la IA en un futuro próximo.

Compartir esta noticiaComentarios

Noticias relacionadas

¿Cómo pueden influir las redes sociales en las elecciones europeas?

Shein tendrá que asumir normas europeas más estrictas para seguir funcionando

Macron quiere restringir las redes sociales a los menores de 15 años en toda Europa