Una nueva investigación afirma que la inteligencia artificial pudo predecir rasgos de personalidad como la amabilidad y la estabilidad emocional con hasta un 60% de acierto, gracias a la información recabada en este tipo de plataformas.
La inteligencia artificial puede predecir la personalidad de un usuario a partir de su historial de chat, según los resultados de una nueva pesquisa. En un estudio preliminar recientemente publicado, investigadores de la Escuela Politécnica Federal de Zúrich (ETH Zurich) pidieron a 668 usuarios de ChatGPT de Estados Unidos y Reino Unido que compartieran copias de sus historiales de chat, y entrenaron un modelo de IA para inferir rasgos de personalidad a partir de esas conversaciones.
Los investigadores recopilaron y analizaron más de 62.000 chats, que clasificaron según los temas en los que se centraban. El modelo de IA entrenado trató después de estimar la probabilidad de que el usuario presentara cinco rasgos de personalidad conocidos en psicología como "los cinco grandes": amabilidad, responsabilidad, estabilidad emocional, extraversión y apertura a la experiencia. Los participantes también fueron evaluados con una prueba psicológica estándar para determinar sus rasgos de personalidad más destacados.
Según el informe, su modelo de IA perfeccionado fue capaz de detectar con precisión los rasgos de personalidad de un usuario con hasta un 61% de acierto. La IA fue especialmente eficaz a la hora de predecir la amabilidad y la estabilidad emocional, pero tuvo más dificultades con la responsabilidad.
La IA obtuvo mejores resultados cuando disponía de historiales de chat más extensos para analizar, lo que sugiere que, cuanto más utiliza una persona la IA, más fácil resulta identificar su personalidad, concluye el estudio.
Aunque los riesgos para las personas son bastante reducidos, los investigadores advierten de que existen "grandes riesgos a gran escala" si actores malintencionados aprovechan estos datos de personalidad. Por ejemplo, creen que estos datos podrían dar pie a "campañas de manipulación masiva que difundan desinformación y/o propaganda política".
Los investigadores confían en que sus resultados sirvan para desarrollar herramientas que reduzcan el riesgo de compartir en exceso datos personales con la IA, como sistemas capaces de eliminar automáticamente información identificativa.