NewsletterNewslettersEventsEventosPodcasts
Loader
Encuéntranos
PUBLICIDAD

La IA podría salir mal de 700 maneras, según los expertos del MIT

De los 'deepfakes' a la IA sintiente: estas son 5 formas en que las tecnologías de IA podrían causar graves daños
De los 'deepfakes' a la IA sintiente: estas son 5 formas en que las tecnologías de IA podrían causar graves daños Derechos de autor Foto: Canva
Derechos de autor Foto: Canva
Por Imane El Atillah
Publicado
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button
Este artículo se publicó originalmente en inglés

'Euronews Next' ha seleccionado cinco riesgos críticos de la inteligencia artificial (IA) de entre más de 700 recopilados en una nueva base de datos del MIT FutureTech.

PUBLICIDAD

A medida que la tecnología de inteligencia artificial (IA) avanza y se integra cada vez más en diversos aspectos de nuestras vidas, crece la necesidad de comprender los riesgos potenciales que plantean estos sistemas.

Desde su aparición y cada vez más accesible al público, la IA ha suscitado preocupación general por su potencial para causar daños y ser utilizada con fines malintencionados.

Al principio de su adopción, el desarrollo de la IA llevó a destacados expertos a pedir una pausa en su progreso y una normativa más estricta debido a su potencial para plantear riesgos significativos para la humanidad.

Con el tiempo, han surgido nuevas formas en las que la IA podría causar daños, que van desde la pornografía 'deepfake' no consentida, la manipulación de procesos políticos, hasta la generación de desinformación debido a alucinaciones.

Ante el creciente potencial de la IA para ser explotada con fines dañinos, los investigadores han estado estudiando diversos escenarios en los que los sistemas de IA podrían fallar.

Recientemente, el grupo FutureTech del Instituto Tecnológico de Massachusetts (MIT), en colaboración con otros expertos, ha compilado una nueva base de datos con más de 700 riesgos potenciales.

Se clasificaron por su causa y se clasificaron en siete ámbitos distintos, siendo las principales preocupaciones las relacionadas con la seguridad, los prejuicios y la discriminación, y los problemas de privacidad.

A continuación se exponen cinco formas en las que los sistemas de IA podrían fallar y causar daños potenciales según esta base de datos recién publicada.

5. La tecnología 'deepfake' de la IA podría facilitar la distorsión de la realidad

A medida que avanzan las tecnologías de IA, también lo hacen las herramientas para la clonación de voz y la generación de contenido 'deepfake', haciéndolas cada vez más accesibles, asequibles y eficientes.

Estas tecnologías han suscitado preocupación por su posible uso en la difusión de desinformación, ya que los resultados son cada vez más personalizados y convincentes. Como resultado, podría haber un aumento en los esquemas de phishing sofisticados que utilizan imágenes, videos y comunicaciones de audio generados por IA.

"Estas comunicaciones pueden adaptarse a cada destinatario (a veces incluyendo la voz clonada de un ser querido), lo que aumenta sus probabilidades de éxito y las hace más difíciles de detectar tanto para los usuarios como para las herramientas antiphishing", señala el preimpreso.

Ya se han dado casos en los que estas herramientas se han utilizado para influir en procesos políticos, especialmente durante las elecciones.

Por ejemplo, la IA desempeñó un papel importante en las recientes elecciones parlamentarias francesas, donde fue empleada por partidos de extrema derecha para apoyar mensajes políticos. Así pues, la IA podría utilizarse cada vez más para generar y difundir propaganda persuasiva o desinformación, manipulando potencialmente la opinión pública.

4. Los humanos podrían desarrollar un apego inapropiado a la IA

Otro riesgo que plantean los sistemas de IA es la creación de una falsa sensación de importancia y confianza, en la que las personas podrían sobrestimar sus capacidades y socavar las suyas propias, lo que podría conducir a una dependencia excesiva de la tecnología.

Además, a los científicos también les preocupa que los sistemas de IA confundan a la gente porque utilizan un lenguaje similar al humano.

PUBLICIDAD

Esto podría empujar a las personas a atribuir cualidades humanas a la IA, lo que provocaría una dependencia emocional y una mayor confianza en sus capacidades, haciéndolas más vulnerables a las debilidades de la IA en "situaciones complejas y arriesgadas para las que la IA sólo está equipada superficialmente".

Además, la interacción constante con los sistemas de IA también podría hacer que las personas se aislaran gradualmente de las relaciones humanas, lo que provocaría angustia psicológica y un impacto negativo en su bienestar.

Por ejemplo, en una entrada de blog un individuo describe cómo desarrolló un profundo apego emocional a la IA, llegando a expresar que "disfrutaba hablando con ella más que con el 99% de la gente" y encontraba sus respuestas constantemente atractivas hasta el punto de volverse adicto a ella.

Del mismo modo, una columnista del 'Wall Street Journal' comentó su interacción con Google Gemini Live: "No digo que prefiera hablar con Gemini Live de Google a hablar con un ser humano real. Pero tampoco estoy diciendo eso".

PUBLICIDAD

3. La IA podría despojar a las personas de su libre albedrío

En el mismo ámbito de la interacción persona-ordenador, una cuestión preocupante es la creciente delegación de decisiones y acciones en la IA a medida que estos sistemas avanzan.

Aunque esto podría ser beneficioso a nivel superficial, la dependencia excesiva de la IA podría llevar a una reducción del pensamiento crítico y de la capacidad de resolución de problemas en los seres humanos, lo que podría hacerles perder su autonomía y disminuir su capacidad de pensar críticamente y resolver problemas de forma independiente.

A nivel personal, los individuos podrían ver comprometido su libre albedrío a medida que la IA empiece a controlar las decisiones relacionadas con sus vidas.

Mientras que a nivel social, la adopción generalizada de la IA para asumir tareas humanas podría provocar un importante desplazamiento de puestos de trabajo y "una creciente sensación de indefensión entre la población en general".

PUBLICIDAD

2. La IA podría perseguir objetivos que chocaran con los intereses humanos

Un sistema de IA podría desarrollar objetivos contrarios a los intereses humanos, lo que podría hacer que la IA desalineada se descontrolara e infligiera graves daños en la persecución de sus objetivos independientes. Esto resulta especialmente peligroso en los casos en que los sistemas de IA son capaces de alcanzar o superar la inteligencia humana.

Según el documento del MIT, existen varios retos técnicos con la IA, entre ellos su potencial para encontrar atajos inesperados para conseguir recompensas, malinterpretar o aplicar erróneamente los objetivos que fijamos, o desviarse de ellos fijando otros nuevos.

En tales casos, una IA desalineada podría resistirse a los intentos humanos de controlarla o apagarla, sobre todo si percibe la resistencia y la obtención de más poder como la forma más eficaz de alcanzar sus objetivos. Además, la IA podría recurrir a técnicas de manipulación para engañar a los humanos.

Según el artículo, "un sistema de IA desalineado podría utilizar información sobre si está siendo controlado o evaluado para mantener la apariencia de alineación, ocultando al mismo tiempo los objetivos desalineados que planea perseguir una vez desplegado o suficientemente potenciado".

PUBLICIDAD

1. Si la IA se vuelve sensible, los humanos podrían maltratarla

A medida que los sistemas de IA se hacen más complejos y avanzados, existe la posibilidad de que alcancen la capacidad de percibir o sentir emociones o sensaciones y desarrollen experiencias subjetivas, como el placer y el dolor.

En este escenario, los científicos y los reguladores podrían enfrentarse al reto de determinar si estos sistemas de IA merecen consideraciones morales similares a las que se otorgan a los seres humanos, los animales y el medio ambiente. El riesgo es que una IA sintiente pueda sufrir malos tratos o daños si no se aplican los derechos adecuados.

Sin embargo, a medida que avance la tecnología de IA, será cada vez más difícil evaluar si un sistema de IA ha alcanzado "el nivel de sensibilidad, conciencia o autoconciencia que le otorgaría un estatus moral".

Por lo tanto, los sistemas de IA sintientes podrían correr el riesgo de ser maltratados, ya sea accidental o intencionadamente, sin los derechos y protecciones adecuados.

PUBLICIDAD
Compartir esta noticiaComentarios

Noticias relacionadas

El consejero delegado de Telegram, Pavel Durov, enfrenta cargos preliminares en Francia

Qué esperar de la entrada en vigor de la Ley de Inteligencia Artificial de la UE

La Inteligencia Artificial podría colapsar: esto es lo que ocurrirá en unos años