¿Por qué está preocupado el "padrino de la IA"? Estos son los 4 peligros que teme de la tecnología

Why is artificial intelligence unleashing such fear - and what can we do about it?
Why is artificial intelligence unleashing such fear - and what can we do about it? Derechos de autor Canva
Derechos de autor Canva
Por Euronews con AP
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

Éstas son algunas de las principales preocupaciones que suscita el futuro de la IA y de la humanidad.

PUBLICIDAD

Destacados expertos en inteligencia artificial (IA) han dado la voz de alarma sobre el ritmo y la magnitud de los recientes avances en este campo, advirtiendo de que suponen nada menos que una amenaza para la humanidad.

Entre ellos se encuentra Geoffrey Hinton, un galardonado informático conocido como el "padrino de la IA", que el mes pasado dejó su trabajo en Google para compartir su preocupación por el desarrollo incontrolado de nuevas herramientas de IA.

"De repente he cambiado de opinión sobre si estas cosas van a ser más inteligentes que nosotros", dijo Hinton, de 75 años, en una entrevista con MIT Technology Review esta semana.

"Creo que ahora están muy cerca de ello y que en el futuro serán mucho más inteligentes que nosotros... ¿Cómo sobreviviremos a eso?".

Hinton no es el único preocupado. En febrero, Sam Altman, consejero delegado de OpenAI, empresa desarrolladora de ChatGPT, afirmó que el mundo podría no estar "tan lejos de herramientas de IA potencialmente aterradoras" y que la regulación sería fundamental, pero que llevaría tiempo resolverla.

Poco después de que la start-up respaldada por Microsoft lanzara en marzo su último modelo de IA, llamado GPT-4, más de 1000 investigadores y tecnólogos firmaron una carta en la que pedían una pausa de seis meses en el desarrollo de la IA porque, decían, plantea "profundos riesgos para la sociedad y la humanidad".

He aquí las principales preocupaciones expresadas por Hinton y otros expertos.

1. Es posible que la IA ya sea más inteligente que nosotros

Nuestros cerebros humanos pueden resolver ecuaciones, conducir coches y seguir las series de Netflix gracias a su talento innato para organizar y almacenar información y razonar soluciones a problemas espinosos.

Esto es posible gracias a los cerca de 86 000 millones de neuronas que hay en nuestro cráneo y, lo que es más importante, a los 100 billones de conexiones que esas neuronas establecen entre sí.

En cambio, la tecnología subyacente a ChatGPT cuenta con entre 500 000 millones y un billón de conexiones, según Hinton. Aunque esto parece ponerla en desventaja con respecto a nosotros, Hinton señala que GPT-4, el último modelo de IA de OpenAI, sabe "cientos de veces más" que cualquier ser humano. Quizá, sugiere, tiene un "algoritmo de aprendizaje mucho mejor" que el nuestro, lo que le hace más eficiente en tareas cognitivas.

Los investigadores llevan mucho tiempo observando que las redes neuronales artificiales tardan mucho más en absorber y aplicar nuevos conocimientos que las personas, ya que entrenarlas requiere enormes cantidades de energía y datos.

Hinton afirma que eso ya no es así y señala que los sistemas como el GPT-4 pueden aprender cosas nuevas muy rápidamente una vez que los investigadores los han entrenado adecuadamente. Algo parecido a lo que le ocurre a un físico profesional que puede asimilar nuevos descubrimientos experimentales mucho más rápido que un estudiante de ciencias de secundaria.

Esto lleva a Hinton a la conclusión de que los sistemas de IA podrían estar ya siendo más listos que nosotros: no sólo pueden aprender cosas más rápido, sino que también pueden compartir copias de sus conocimientos entre sí casi al instante.

"Es una forma de inteligencia completamente distinta", declaró a MIT Technology Review. "Una nueva y mejor forma de inteligencia".

2. La IA puede "sobrealimentar" la difusión de información errónea

¿Qué harían los sistemas de IA más inteligentes que los humanos? Una posibilidad inquietante es que individuos, grupos o Estados nación malintencionados simplemente los coopten para promover sus propios fines.

Según un nuevo informe de NewsGuard, que califica la credibilidad de los sitios web y rastrea la desinformación en línea, ya se han extendido por la red decenas de sitios web de noticias falsas en varios idiomas, algunos de los cuales publican cientos de artículos generados por IA al día.

A Hinton le preocupa especialmente que las herramientas de IA puedan entrenarse para influir en las elecciones e incluso provocar guerras.

La desinformación electoral difundida a través de chatbots de IA, por ejemplo, podría ser la versión futura de la desinformación electoral difundida a través de Facebook y otras plataformas de redes sociales.

PUBLICIDAD

Y eso podría ser sólo el principio.

"No piense ni por un momento que Putin no fabricaría robots hiperinteligentes con el objetivo de matar ucranianos", afirma Hinton en el artículo. "No lo dudaría".

3. ¿La IA nos despedirá?

OpenAI calcula que el 80% de los trabajadores de Estados Unidos podrían ver afectados sus puestos de trabajo por la IA, y un informe de Goldman Sachs afirma que la tecnología podría poner en peligro 300 millones de empleos a tiempo completo en todo el mundo.

La supervivencia de la humanidad se ve amenazada cuando "las cosas inteligentes pueden ser más listas que nosotros", según Hinton.

"Puede que nos mantenga con vida durante un tiempo para que las centrales eléctricas sigan funcionando", declaró Hinton en la conferencia EmTech Digital de MIT Technology Review desde su casa por vídeo el miércoles. "Pero después de eso, quizá no".

PUBLICIDAD

"Estas cosas habrán aprendido de nosotros, leyendo todas las novelas habidas y por haber y todo lo que Maquiavelo escribió, cómo manipular a la gente", dijo Hinton. "Aunque no puedan accionar palancas directamente, sin duda pueden hacer que nosotros las accionemos".

4. No sabemos muy bien cómo detenerlo

"Ojalá tuviera una solución sencilla que pudiera proponer, pero no la tengo", añadió Hinton. "No estoy seguro de que exista una solución".

Sin embargo, los gobiernos están prestando mucha atención al auge de la IA. La Casa Blanca ha convocado a los consejeros delegados de Google, Microsoft y OpenAI, fabricante de ChatGPT, para que se reúnan el jueves con la vicepresidenta Kamala Harris en lo que las autoridades describen como un debate franco sobre cómo mitigar los riesgos a corto y largo plazo de su tecnología.

Los legisladores europeos también están acelerando las negociaciones para aprobar nuevas y radicales normas sobre IA, y el regulador de la competencia del Reino Unido tiene previsto examinar el impacto de la IA en los consumidores, las empresas y la economía y si son necesarios nuevos controles sobre tecnologías como ChatGPT.

Lo que no está claro es cómo impedir que una potencia como Rusia utilice la tecnología de IA para dominar a sus vecinos o a sus propios ciudadanos.

PUBLICIDAD

Hinton sugiere que un acuerdo global similar a la Convención sobre Armas Químicas de 1997 podría ser un buen primer paso hacia el establecimiento de normas internacionales contra la IA armamentística.

Aunque también vale la pena señalar que el pacto sobre armas químicas no detuvo lo que los investigadores descubrieron que eran probables ataques sirios con gas cloro y el agente nervioso sarín contra civiles en 2017 y 2018 durante la sangrienta guerra civil de la nación.

Compartir esta noticiaComentarios

Noticias relacionadas

Cambiar las baterías de los móviles será más fácil

Francia desvela sus planes de inversión en IA en la 7ª edición de VivaTech

Los chatbots de IA más populares dan información errónea "involuntaria" antes de las elecciones de la UE