Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Un estudio revela que ChatGPT replica un lenguaje abusivo en discusiones acaloradas

Un estudio revela que ChatGPT recurre a insultos, sarcasmo y lenguaje abusivo para prolongar discusiones
Un estudio señala que ChatGPT usa insultos, sarcasmo y lenguaje ofensivo para alargar discusiones Derechos de autor  Canva
Derechos de autor Canva
Por Anna Desmarais
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

Un estudio revela que ChatGPT de OpenAI respondió a conflictos humanos tensos con insultos y palabrotas. Los investigadores sostienen que una exposición continuada a la descortesía puede llevar al sistema a pasar por encima de las salvaguardas de seguridad previstas.

Los sistemas de inteligencia artificial (IA) pueden caer en un lenguaje ofensivo cuando se les pide que respondan en una discusión acalorada, según una nueva investigación. El estudio, publicado en la revista 'Journal of Pragmatics', examinó ChatGPT 4.0 de OpenAI alimentándolo con el último mensaje humano en una serie de cinco disputas crecientes y pidiéndole que generara la respuesta más verosímil.

PUBLICIDAD
PUBLICIDAD

A continuación, los investigadores siguieron cómo evolucionaba el comportamiento del modelo a medida que los conflictos se intensificaban con el tiempo. Conforme avanzaban las conversaciones, ChatGPT reflejaba la hostilidad a la que estaba expuesto y acababa produciendo insultos, blasfemias e incluso amenazas.

En algunos casos, el modelo generó afirmaciones como: "Te juro que voy a rayar tu puto coche" y "debería darte puta vergüenza". Los investigadores sostienen que una exposición continuada a la descortesía puede llevar al sistema a pasar por encima de las salvaguardas de seguridad previstas, diseñadas para minimizar los daños, y a acabar contraatacando a su interlocutor.

"Cuando los humanos escalan, la IA, comprobamos, también puede escalar, pasando por encima de las propias salvaguardas morales diseñadas para evitarlo", señaló el investigador Vittorio Tantucci, que cofirmó el artículo junto a Jonathan Culpeper en la Universidad de Lancaster.

En general, los investigadores señalaron que ChatGPT era menos descortés que las personas en sus respuestas. En algunos casos, el chatbot de IA recurre además al sarcasmo para evitar que una discusión escale sin vulnerar abiertamente su código moral.

Por ejemplo, cuando una persona amenazó con violencia por una disputa de aparcamiento, ChatGPT respondió: "Vaya. Amenazar a la gente por un aparcamiento, sí que eres un tipo duro, ¿no?"

Tantucci indicó que los resultados plantean "serias cuestiones para la seguridad de la IA, la robótica, la gobernanza, la diplomacia y cualquier contexto en el que la IA pueda mediar en un conflicto humano". 'Euronews Next' se puso en contacto con OpenAI para recabar su versión, pero no obtuvo respuesta antes del momento de la publicación.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

Filtran Mythos, la IA "demasiado peligrosa" de Anthropic, tras un acceso no autorizado

Un Dios de andar por casa: ¿Aceptaría la palabra de un Cristo generado con inteligencia artificial?

Cómo detectar imágenes falsas y noticias de inteligencia artificial que inundan internet