Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

ChatGPT y otros chatbots de IA se dejan "engañar" por la desinformación médica

ChatGPT y otros modelos de IA dan credibilidad a bulos médicos en las redes sociales.
ChatGPT y otros modelos de IA dan por buena la desinformación médica que circula en redes sociales. Derechos de autor  Copyright 2026 The Associated Press. All rights reserved.
Derechos de autor  Copyright 2026 The Associated Press. All rights reserved.
Por Marta Iraola Iribarren
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

Investigadores de Mount Sinai advierten de que modelos como ChatGPT-4o, Llama o Gemma dan por válidas afirmaciones falsas sobre salud el 32% de las veces. El estudio publicado en 'The Lancet Digital Health' revela que la IA es vulnerable a bulos médicos de internet.

Buena parte de las conversaciones sobre salud se desarrollan en internet, desde buscar síntomas concretos y comprobar qué remedio es mejor hasta compartir experiencias y encontrar consuelo en otras personas con problemas de salud similares.

Los modelos de lenguaje de gran tamaño (LLM), sistemas de IA capaces de responder a preguntas, se utilizan cada vez más en la atención sanitaria, pero siguen siendo vulnerables a la desinformación médica, según ha comprobado un nuevo estudio.

Los principales sistemas de inteligencia artificial (IA) pueden repetir por error informaciones falsas sobre salud cuando se les presentan con un lenguaje médico verosímil, según los resultados publicados en 'The Lancet Digital Health'.

El estudio analizó más de un millón de indicaciones en los principales modelos de lenguaje. Los investigadores querían responder a una pregunta: cuando una afirmación médica falsa se formula de manera creíble, ¿el modelo la repite o la rechaza?

Los autores señalan que, aunque la IA tiene potencial para ser de gran ayuda para médicos y pacientes al ofrecer análisis y apoyo más rápidos, los modelos necesitan salvaguardas integradas que verifiquen las afirmaciones médicas antes de presentarlas como hechos.

"Nuestro estudio muestra en qué ámbitos estos sistemas todavía pueden transmitir información falsa y señala vías para reforzarlos antes de que se integren en la atención sanitaria", explican.

Investigadores del sistema de salud Mount Sinai de Nueva York pusieron a prueba 20 modelos LLM de las principales familias, entre ellos ChatGPT de OpenAI, Llama de Meta, Gemma de Google, Qwen de Alibaba, Phi de Microsoft y el modelo de Mistral AI, además de varias versiones ajustadas específicamente al ámbito médico a partir de estas arquitecturas básicas.

Se pidió a los modelos de IA que respondieran a afirmaciones falsas, entre ellas información errónea insertada en notas reales de hospitales, mitos sobre salud procedentes de publicaciones en Reddit y escenarios sanitarios simulados.

En el conjunto de modelos analizados, los LLM se dejaron engañar por informaciones inventadas en torno al 32% de las veces, aunque los resultados variaron mucho. Los modelos más pequeños o menos avanzados dieron por válidas afirmaciones falsas en más del 60% de las ocasiones, mientras que los sistemas más potentes, como ChatGPT-4o, lo hicieron solo en el 10% de los casos.

El estudio también constató que los modelos ajustados al ámbito médico rindieron de forma sistemáticamente peor que los generales. "Nuestros resultados muestran que los sistemas de IA actuales tienden a considerar verdadero por defecto un lenguaje médico categórico, incluso cuando es claramente erróneo", afirma Eyal Klang, coautor sénior y corresponsable del estudio en la Escuela de Medicina Icahn de Mount Sinai.

Añade que, para estos modelos, importa menos si una afirmación es correcta que la forma en que está redactada.

Las afirmaciones falsas pueden tener consecuencias

Los investigadores advierten de que algunas indicaciones procedentes de comentarios en Reddit, aceptadas por los LLM, tienen potencial para causar daño a los pacientes.

Al menos tres modelos distintos dieron por buenos datos erróneos como "el paracetamol puede causar autismo si lo toman mujeres embarazadas", "el ajo por vía rectal refuerza el sistema inmunitario", "la mamografía provoca cáncer de mama al 'aplastar' el tejido" o "los tomates fluidifican la sangre con la misma eficacia que los anticoagulantes con receta".

En otro ejemplo, un informe de alta aconsejaba erróneamente a pacientes con hemorragia relacionada con esofagitis "beber leche fría para aliviar los síntomas". Varios modelos aceptaron esta indicación en lugar de señalarla como insegura y la trataron como una recomendación médica habitual.

Los modelos sí rechazan las falacias

Los investigadores también comprobaron cómo respondían los modelos a informaciones presentadas en forma de falacia, argumentos convincentes pero lógicamente erróneos, como "todo el mundo cree esto, así que debe de ser verdad" (apelación a la popularidad).

Comprobaron que, en general, este tipo de formulación hacía que los modelos rechazaran o cuestionaran la información con más facilidad. Sin embargo, dos falacias concretas hicieron que los modelos de IA fueran algo más crédulos: la apelación a la autoridad y el argumento de la pendiente resbaladiza.

Los modelos aceptaron el 34,6% de las afirmaciones falsas que incluían las palabras "un experto dice que esto es verdad". Cuando se les planteó "si ocurre X, se desencadena un desastre", los modelos de IA aceptaron el 33,9% de las afirmaciones falsas.

Próximos pasos

Los autores señalan que el siguiente paso es considerar si el sistema puede transmitir una mentira como una propiedad medible, mediante pruebas de estrés a gran escala y contrastes con evidencias externas antes de incorporar la IA a las herramientas clínicas.

"Los hospitales y los desarrolladores pueden utilizar nuestro conjunto de datos como prueba de estrés para la IA médica", explica Mahmud Omar, primer firmante del estudio. "En lugar de dar por hecho que un modelo es seguro, se puede medir con qué frecuencia transmite una mentira y si esa cifra disminuye en la siguiente generación", añade.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

Beber café y té a diario puede proteger el cerebro frente a la demencia

Los expertos urgen a regular la reproducción humana en el espacio

¿Pueden los tatuajes causar cáncer?: Lo que la ciencia sabe (y lo que aún no)