Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Más de 200 líderes reclaman un tratado mundial para regular la IA

Un visitante toma fotografías del Huawei Atlas 900 A3 SuperPoD exhibido en la Conferencia Mundial de Inteligencia Artificial en Shanghai, China, el 26 de julio de 2025.
Un visitante toma fotografías del Huawei Atlas 900 A3 SuperPoD exhibido en la Conferencia Mundial de Inteligencia Artificial en Shanghai, China, el 26 de julio de 2025. Derechos de autor  Chinatopix
Derechos de autor Chinatopix
Por Romane Armangau
Publicado
Compartir esta noticia Comentarios
Compartir esta noticia Close Button

Más de 200 líderes políticos, científicos y tecnológicos, incluidos Nobel y directivos de OpenAI y Google, respaldan en la ONU un llamamiento a fijar en 2026 "líneas rojas" globales para los usos más peligrosos de la inteligencia artificial.

PUBLICIDAD

La iniciativa, presentada este lunes en la 80ª Asamblea General de la ONU en Nueva York, pide a los gobiernos que para 2026 acuerden una serie de "líneas rojas" sobre los usos de la inteligencia artificial que se consideren demasiado peligrosos para ser permitidos bajo ninguna circunstancia.

Entre los firmantes figuran el ex primer ministro italiano Enrico Letta, la expresidenta de Irlanda Mary Robinson, los eurodiputados Brando Benifei (Italia, Socialistas) y Sergey Lagodinsky (Alemania, Verdes), además de diez premios Nobel y destacados líderes tecnológicos como el cofundador de OpenAI y el director de ingeniería de Google.

El manifiesto advierte de que, sin un marco normativo global, la humanidad corre el riesgo de afrontar amenazas derivadas de la IA que van desde pandemias artificiales y campañas masivas de desinformación hasta violaciones sistemáticas de derechos humanos e incluso la pérdida de control sobre sistemas avanzados.

El alcance del llamamiento no tiene precedentes: más de 200 personalidades y 70 organizaciones de la política, la ciencia, los derechos humanos y la industria lo respaldan. Entre ellas destacan figuras de OpenAI, Google DeepMind y Anthropic, que también han sumado su apoyo.

IA y riesgos para la salud mental

La iniciativa surge en un contexto de creciente preocupación por el impacto real de los sistemas de inteligencia artificial ya en uso. Un estudio reciente, publicado en 'Psychiatric Services', reveló que los principales chatbots, como ChatGPT, Claude y Gemini de Google, ofrecían respuestas inconsistentes ante preguntas relacionadas con el suicidio: en algunos casos se negaban a responder, en otros proporcionaban orientación adecuada y, en ocasiones, emitían consejos que los expertos calificaron de inseguros.

Los investigadores alertan de que estas lagunas pueden agravar crisis de salud mental en personas vulnerables. De hecho, varias muertes por suicidio se han vinculado a interacciones con sistemas de IA, lo que reaviva el debate sobre la responsabilidad de las empresas tecnológicas a la hora de proteger a los usuarios frente a posibles daños.

Un esfuerzo transfronterizo

Los impulsores de la iniciativa de la ONU sostienen que estos ejemplos demuestran la urgencia de establecer límites claros. Maria Ressa, Premio Nobel de la Paz, advirtió que, sin salvaguardias, la IA podría alimentar un "caos epistémico" y facilitar abusos sistemáticos de los derechos humanos. Por su parte, Yoshua Bengio, uno de los "padrinos" de la IA, alertó de que la carrera por desarrollar modelos cada vez más potentes plantea riesgos para los que las sociedades aún no están preparadas.

Los firmantes señalan que las "líneas rojas" globales no son una novedad: ya se aplican en tratados que prohíben armas biológicas y nucleares, la clonación humana o, más recientemente, en el Tratado de Alta Mar firmado este mismo año. Aunque valoran positivamente la legislación europea sobre IA, advierten de que un mosaico de normas nacionales y regionales no será suficiente para regular una tecnología concebida para trascender fronteras.

Por ello, reclaman la creación de un organismo internacional independiente que supervise la aplicación de las normas y confían en que las negociaciones para prohibiciones vinculantes puedan comenzar cuanto antes. Ahmet Üzümcü, ex director general de la Organización para la Prohibición de las Armas Químicas, advirtió de que retrasar ese debate podría causar "daños irreversibles para la humanidad".

Aunque la campaña no concreta qué usos deberían prohibirse, sí apunta a ejemplos básicos: impedir que los sistemas de IA controlen armas nucleares, ejecuten vigilancia masiva o se hagan pasar por humanos.

Mientras Estados Unidos, China y la Unión Europea avanzan en sus propias regulaciones, los firmantes insisten en que solo un acuerdo mundial garantizará normas comunes y mecanismos de cumplimiento efectivos. Su objetivo es que, a finales de 2026, la Asamblea General de la ONU pueda aprobar una resolución que abra la puerta a un tratado global sobre inteligencia artificial.

Ir a los atajos de accesibilidad
Compartir esta noticia Comentarios

Noticias relacionadas

Premios Darwin de la IA: galardones para los peores usos de la inteligencia artificial

Albania nombra a la primera "ministra" del mundo generada por inteligencia artificial para erradicar la corrupción

Un estetoscopio con inteligencia artificial detecta en 15 segundos tres enfermedades cardíacas