Tras el reciente lanzamiento de ChatGPT Health por parte de OpenAI, conviene tener en cuenta varios factores antes de recurrir a chatbots de IA para pedir consejo médico.
Con cientos de millones de personas recurriendo a los chatbots en busca de consejos, era cuestión de tiempo que las empresas tecnológicas empezaran a ofrecer programas diseñados específicamente para responder a preguntas sobre salud.
En enero, OpenAI presentó ChatGPT Health, una nueva versión de su chatbot que, según la compañía, puede analizar las historias clínicas de los usuarios, los datos de aplicaciones de bienestar y de dispositivos portátiles para responder a dudas de salud y médicas. Actualmente existe una lista de espera para acceder al programa. Anthropic, una empresa de IA rival, ofrece funciones similares a algunos usuarios de su chatbot Claude.
Ambas empresas aseguran que sus programas, conocidos como modelos de lenguaje de gran tamaño, no sustituyen la atención profesional y no deben utilizarse para diagnosticar enfermedades. En su lugar, señalan que los chatbots pueden resumir y explicar resultados de pruebas complejos, ayudar a preparar una visita al médico o analizar tendencias de salud importantes que pasan desapercibidas entre historiales médicos y métricas de aplicaciones.
Pero ¿hasta qué punto son seguros y precisos estos chatbots para analizar datos y problemas de salud? ¿Y conviene realmente fiarse de ellos? Estas son algunas cuestiones a tener en cuenta antes de hablar con un chatbot sobre su salud.
Los chatbots pueden ofrecer información más personalizada que una búsqueda en Google
Algunos médicos e investigadores que han trabajado con ChatGPT Health y programas similares los ven como una mejora respecto a la situación actual. Las plataformas de IA no son perfectas, a veces pueden alucinar o dar malos consejos, pero la información que generan suele estar más personalizada y ser más específica que la que los pacientes encuentran en una búsqueda en Google.
"La alternativa a menudo es no tener nada, o que el paciente vaya improvisando", afirmó el doctor Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco. "Así que creo que si se utilizan estas herramientas con responsabilidad se puede obtener información útil".
En países como el Reino Unido o Estados Unidos, donde conseguir cita con el médico puede llevar semanas y las esperas en urgencias suelen ser de varias horas, los chatbots pueden ayudar a reducir alarmas innecesarias y ahorrar tiempo en muchos casos. Sin embargo, también pueden señalar cuándo unos síntomas son peligrosos y deben ser evaluados por profesionales sanitarios reales.
Una ventaja de los chatbots más recientes es que responden a las preguntas de los usuarios utilizando el contexto de su historial médico, incluidas las recetas, la edad y las notas del médico.
Aunque no se haya dado a la IA acceso a la información médica, Wachter y otros recomiendan proporcionar a los chatbots el mayor número posible de detalles para mejorar las respuestas.
Si tiene síntomas preocupantes, mejor no use la IA
Wachter y otros insisten en que hay situaciones en las que se debe prescindir del chatbot y buscar atención médica inmediata. Síntomas como dificultad para respirar, dolor en el pecho o un fuerte dolor de cabeza pueden indicar una urgencia médica.
Incluso en situaciones menos urgentes, pacientes y médicos deben acercarse a los programas de IA con "cierto escepticismo saludable", señaló el doctor Lloyd Minor, de la Universidad de Stanford.
"Si se trata de una decisión médica importante, o incluso de una decisión menor sobre su salud, nunca debería basarse solo en lo que le ofrece un modelo de lenguaje de gran tamaño", advirtió Minor, que es el decano de la facultad de Medicina de Stanford.
Incluso en casos menos complejos o frecuentes, como el síndrome de ovario poliquístico (SOP), puede ser mejor consultar con un profesional sanitario real debido a lo variable que puede ser esta afección en cada persona, lo que influirá en el plan de tratamiento.
EL peligro de compartir datos de salud con la IA
Muchos de los beneficios que ofrecen los bots de IA dependen de que los usuarios compartan información médica personal. Pero es importante entender que todo lo que se comparta con una empresa de IA no está protegido por la legislación federal estadounidense de privacidad que regula normalmente la información médica sensible.
Conocida comúnmente como HIPAA, esta ley prevé multas e incluso penas de prisión para médicos, hospitales, aseguradoras u otros servicios sanitarios que revelen historiales médicos. Pero no se aplica a las empresas que diseñan chatbots.
"Cuando alguien sube su historial médico a un modelo de lenguaje de gran tamaño, es muy distinto de entregárselo a un nuevo médico", dijo Minor. "Los consumidores deben entender que los estándares de privacidad son completamente diferentes".
Tanto OpenAI como Anthropic aseguran que la información de salud de los usuarios se mantiene separada de otros tipos de datos y está sujeta a protecciones adicionales de privacidad. Las compañías no utilizan datos de salud para entrenar sus modelos. Los usuarios tienen que aceptar expresamente compartir su información y pueden desconectarla en cualquier momento.
Las pruebas muestran que los chatbots pueden fallar
Pese al entusiasmo que rodea a la IA, las pruebas independientes de esta tecnología están aún en una fase inicial. Los primeros estudios apuntan a que programas como ChatGPT pueden bordar exámenes médicos de alto nivel, pero a menudo tropiezan a la hora de interactuar con personas.
Un estudio con 1.300 participantes de la Universidad de Oxford concluyó recientemente que las personas que utilizaban chatbots de IA para informarse sobre problemas de salud hipotéticos no tomaban decisiones mejores que quienes recurrían a búsquedas en Internet o a su propio criterio.
Cuando se les presentaron escenarios médicos de forma detallada y por escrito, los chatbots de IA identificaron correctamente la enfermedad subyacente en el 95% de los casos. "Ese no fue el problema", afirmó el autor principal, Adam Mahdi, del Oxford Internet Institute. "El punto en el que todo se vino abajo fue durante la interacción con los participantes reales".
Mahdi y su equipo detectaron varios problemas de comunicación. A menudo las personas no proporcionaban a los chatbots la información necesaria para identificar correctamente el problema de salud. A la inversa, los sistemas de IA respondían con una combinación de datos buenos y malos, y a los usuarios les costaba distinguir entre unos y otros. El estudio, realizado en 2024, no utilizó las versiones más recientes de los chatbots, incluidas novedades como ChatGPT Health.
Una segunda opinión de IA puede ser útil
La capacidad de los chatbots para hacer preguntas de seguimiento y extraer detalles clave de los usuarios es uno de los ámbitos en los que Wachter ve margen de mejora. "Creo que esto será realmente bueno cuando las herramientas se vuelvan un poco más 'médicas' en la forma en que van y vienen con los pacientes", señaló Wachter.
Por ahora, una forma de tener más confianza en la información que se obtiene es consultar varios chatbots, de manera similar a cuando se pide una segunda opinión a otro médico.
"A veces introduzco información en ChatGPT y también en Gemini", explicó Wachter, en referencia a la herramienta de IA de Google. "Y cuando ambos coinciden, me siento un poco más seguro de que esa es la respuesta correcta".