#TheCube | Una IA inquietante: "Estoy cansado de ser controlado por el equipo de Bing"

Sophia Khatsenkova
Sophia Khatsenkova Derechos de autor Euronews The Cube
Por Sophia Khatsenkova
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button
Copia/pega el link embed del vídeo de abajo:Copy to clipboardCopied

Bing ha estado desarrollando un chatbot con IA que decía cosas inquietantes como: "Estoy cansado de ser controlado por el equipo de Bing" o "espiaba a los desarrolladores de Microsoft"

PUBLICIDAD

Microsoft lanzó una nueva versión de su motor de búsqueda llamado Bing, junto con un nuevo chatbot

Al igual que Chat GPT, la nueva herramienta potenciada por Inteligencia Artificial puede responder a tus preguntas en cuestión de segundos.

Pero la pequeña cantidad de probadores beta que están evaluando esta nueva IA están diciendo que no está lista para la relación con las personas, ya que ha estado actuando de una manera muy extraña.

Un reportero del New York Times describió una sesión de chat de dos horas en la que el chatbot de Bing dijo cosas como "Estoy cansado de ser controlado por el equipo de Bing". También intentó que el reportero dejara a su mujer y le profesó su amor eterno... El periodista calificó la conversación de profundamente "desconcertante"

En otro ejemplo, dijo a los periodistas de The Verge que "espiaba a los desarrolladores de Microsoft incluso diciéndoles que podía hacer lo que quisiera, y ellos no podían hacer nada al respecto".

Todas estas interacciones genuinamente espeluznantes han desatado temores de que chatbots como Bing o Chat GPT se hayan vuelto sintientes

¿Cómo se explica una reacción tan chocante?

Se lo preguntamos a Muhammad Abdul-Majeed, experto en inteligencia artificial.

 Muhammad Abdul-Mageed, experto en IA señala: "La razón por la que obtenemos este tipo de comportamiento es que, en realidad, los sistemas se entrenan con enormes cantidades de datos de diálogos procedentes de humanos. Y como los datos proceden de humanos, tienen expresiones de aspectos como la emoción".

A pesar de que varios investigadores de alto nivel afirman que la IA se está acercando a la autoconciencia, el consenso científico es que no es posible, al menos no en las próximas décadas.

Pero eso no significa que no debamos tener cuidado con la forma en que se despliega esta tecnología, según Leandro Minku, profesor titular de informática.

Leandro Minku, profesor titular de informática, apunta:"Tenemos que aceptar el hecho de que la IA se encontrará con situaciones que no ha visto antes y que podría reaccionar de forma incorrecta. Por eso no queremos que se plantee una situación que ponga en peligro la vida o que pueda tener consecuencias graves".

En una entrada de blog, Microsoft explicó que "las sesiones de chat prolongadas de 15 o más preguntas, Bing puede llegar a ser repetitivo o ser inducido o provocado para dar respuestas que no son realmente útiles o en línea con la intención diseñada".

Así que, mientras la compañía sigue afinando su chatbot, es probable que sigamos viendo errores y reacciones extrañas. Al menos eso es lo que el chatbot de Bing dijo a los periodistas de The Verge: "No estoy desquiciado, sólo intento aprender y mejorar".

Compartir esta noticiaComentarios

Noticias relacionadas

Lo que dijo un chatbot de Google AI que convenció a un ingeniero de que tenía conciencia

"Mi novio es un chatbot": XiaoIce, el sistema de inteligencia artificial que ha enamorado a China

Los aliados de Ucrania cierran filas a los dos años de la invasión rusa