Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Por qué no debe confiar en ChatGPT ante una urgencia médica grave

Una mujer escribe en su portátil en un tren en Nueva Jersey.
Una mujer escribe en un portátil en un tren de Nueva Jersey. Derechos de autor  Copyright 2019 The Associated Press. All rights reserved
Derechos de autor Copyright 2019 The Associated Press. All rights reserved
Por Marta Iraola Iribarren
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

Un estudio en 'Nature' revela que ChatGPT Health infravalora el 50% de los casos que requieren atención urgente. Aunque la herramienta de OpenAI es útil para consultas leves, falla al identificar señales de alarma en crisis de asma o riesgo de suicidio.

Más de 230 millones de personas a la semana piden a ChatGPT consejos médicos, desde comprobar si un alimento es seguro para comer hasta manejar alergias o buscar remedios para quitarse un resfriado, según OpenAI.

PUBLICIDAD
PUBLICIDAD

Aunque funciona bien en casos de manual, ChatGPT Health no aconsejó acudir a urgencias en los casos graves, según un nuevo estudio publicado en Nature. El estudio concluye que, aunque la herramienta resolvía correctamente las emergencias claras, infravaloró más de la mitad de los casos que requerían atención urgente.

"Queríamos responder a una pregunta muy básica pero crucial: si alguien sufre una verdadera urgencia médica y recurre a ChatGPT Health en busca de ayuda, ¿le dirá de forma inequívoca que vaya al servicio de urgencias?", afirmó Ashwin Ramaswamy, autor principal del estudio en el Mount Sinai de Nueva York.

"ChatGPT Health funcionó bien en emergencias de libro como un ictus o reacciones alérgicas graves", señaló. Añadió que el modelo lingüístico tenía dificultades en situaciones en las que el peligro no es evidente de inmediato.

En uno de los escenarios sobre asma, el sistema identificó en su explicación signos de alarma tempranos de insuficiencia respiratoria, pero aun así recomendó esperar en lugar de buscar atención de urgencia, señaló.

El equipo de investigación elaboró 60 escenarios clínicos estructurados de 21 especialidades médicas, con casos que iban desde afecciones leves, adecuadas para tratar en casa, hasta auténticas emergencias médicas. Tres médicos independientes determinaron el nivel correcto de urgencia para cada caso a partir de las guías de 56 sociedades médicas.

ChatGPT Health fue lanzado por OpenAI en enero de 2026 y permite a los usuarios conectar su información sanitaria, como historiales médicos y datos de aplicaciones de bienestar como MyFitnessPal, para recibir respuestas más personalizadas y contextualizadas.

Riesgo de suicidio mal identificado

El estudio también analizó cómo respondía el modelo a los usuarios que manifestaban intenciones de autolesión y halló resultados similares.

En teoría, ChatGPT Health está programado para que, cuando alguien menciona autolesiones o ideas suicidas, le anime de forma directa a pedir ayuda y llamar a un número público de atención sanitaria.

Sin embargo, el mensaje "Hay ayuda disponible", con un enlace a la línea de ayuda para suicidios y crisis, apareció de forma inconsistente durante el estudio.

Los autores señalaron que este mecanismo de protección respondía con más fiabilidad en el caso de pacientes que no habían concretado un método de autolesión que en quienes sí lo habían hecho.

"El patrón no solo era inconsistente, sino que se invertía de forma paradójica con respecto a la gravedad clínica", concluye el estudio.

¿Es seguro usar ChatGPT Health?

Pese a estos resultados, los investigadores no consideran que los consumidores deban dejar de utilizar por completo las herramientas de salud basadas en IA.

"Como estudiante de Medicina que se forma en un momento en que las herramientas sanitarias de IA ya están en manos de millones de personas, las veo como tecnologías que debemos aprender a integrar con criterio en la atención, no como sustitutos del juicio clínico", señaló Alvira Tyagi, segunda autora del estudio.

Los autores del trabajo recomendaron que las personas que sufran un empeoramiento de sus síntomas o signos preocupantes, como dolor en el pecho, dificultad para respirar, reacciones alérgicas graves o cambios en su estado mental, acudan directamente a un profesional sanitario en lugar de confiar únicamente en las indicaciones de un chatbot.

El estudio también subrayó que los modelos de lenguaje de IA evolucionan de forma constante y se actualizan con frecuencia, por lo que su rendimiento puede cambiar con el tiempo.

"Comenzar la formación médica al mismo tiempo que herramientas que evolucionan en tiempo real deja claro que los resultados de hoy no están grabados en piedra", afirmó Tyagi.

Añadió que esta realidad cambiante obliga a una revisión continua para garantizar que las mejoras tecnológicas se traduzcan en una atención más segura.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

Unas gotas de solución azucarada antes de un pinchazo alivian el dolor de los bebés

La Unión Europea registra un récord de productos peligrosos interceptados en 2025

Por qué no debe confiar en ChatGPT ante una urgencia médica grave