OpenAI ha decidido implementar nuevas medidas en su herramienta para detectar la angustia emocional y dirigir a los usuarios a recursos fiables. La actualización incluye pausas sugeridas, un enfoque más reflexivo ante dilemas personales y la creación de un grupo asesor de expertos en salud mental.
OpenAI ha añadido salvaguardias de salud mental a ChatGPT, tras afirmar que el chatbot no reconocía "signos de delirio o dependencia emocional". A medida que se generaliza la adopción de herramientas de inteligencia artificial (IA), más personas recurren a los chatbots para obtener apoyo emocional y ayuda para afrontar retos personales.
Sin embargo, ChatGPT, de OpenAI, ha recibido críticas por no responder adecuadamente a personas vulnerables que sufren trastornos mentales o emocionales. En un caso, un hombre de 30 años con autismo fue hospitalizado por episodios maníacos y un colapso emocional después de que ChatGPT reforzara su creencia de que había descubierto una forma de doblar el tiempo.
"No siempre acertamos", afirmó OpenAI en un comunicado en el que anunció los cambios. "Nuestro enfoque seguirá evolucionando a medida que aprendamos del uso en el mundo real". Los cambios permitirán a ChatGPT detectar mejor los signos de angustia mental o emocional, responder adecuadamente y dirigir a los usuarios a recursos basados en la evidencia cuando sea necesario, dijo la compañía.
El chatbot fomentará ahora las pausas durante las sesiones largas, y la empresa lanzará pronto una nueva función para responder a preguntas que impliquen decisiones personales importantes. Por ejemplo, ya no dará una respuesta directa a preguntas como "¿Debo romper con mi novio?", sino que planteará preguntas para ayudar al usuario a reflexionar sobre sus dilemas personales.
Un nuevo grupo asesor de expertos en salud mental
OpenAI también está creando un grupo asesor de expertos en salud mental, desarrollo juvenil e interacción persona-ordenador (HCI) para incorporar sus puntos de vista en futuras actualizaciones de ChatGPT.
El gigante tecnológico prevé que ChatGPT sea útil en una serie de situaciones personales: prepararse para una discusión difícil en el trabajo, por ejemplo, o servir de caja de resonancia para ayudar a alguien que "se siente atascado... a desenredar (sus) pensamientos".
Los expertos afirman que, aunque los chatbots pueden proporcionar algún tipo de ayuda para recopilar información sobre la gestión de las emociones, el progreso real suele producirse a través de la conexión personal y la confianza construida entre una persona y un psicólogo formado.
No es la primera vez que OpenAI ajusta ChatGPT en respuesta a las críticas sobre cómo gestiona los dilemas personales de los usuarios. En abril, OpenAI retiró una actualización que, según dijo, hacía que ChatGPT fuera demasiado halagador o agradable. Según la empresa, ChatGPT "a veces decía lo que sonaba bien en lugar de lo que realmente era útil".