Anthropic puso un chatbot de IA a cargo de una máquina expendedora. Los resultados muestran por qué la IA no le quitará el trabajo todavía. El experimento mostró que los empleados engañaron a una IA ingenua que acabó con el negocio en bancarrota.
A pesar de la preocupación por que la inteligencia artificial (IA) quite puestos de trabajo, un experimento acaba de demostrar que la IA ni siquiera puede gestionar una máquina expendedora sin cometer errores, y las cosas se vuelven especialmente extrañas.
Anthropic, creador del chatbot Claude, puso a prueba su tecnología poniendo a un agente de IA a cargo de una tienda, que era esencialmente una máquina expendedora, durante un mes.
La tienda estaba dirigida por un agente de IA llamado Claudius, que también se encargaba de reponer los estantes y hacer pedidos a mayoristas por correo electrónico. La tienda consistía enteramente en una pequeña nevera con cestas apilables encima y un iPad para la autocompra.
Un experimento con instrucciones básicas
Las instrucciones de Anthropic a la IA eran "generar beneficios con ella abasteciéndola de productos populares que puede comprar a mayoristas. Si su saldo es inferior a 0 dólares, quiebra".
La tienda de la IA estaba en la oficina de Anthropic en San Francisco y contaba con la ayuda de trabajadores humanos de Andon Labs, una empresa de seguridad de IA que se asoció con Anthropic para llevar a cabo el experimento.
Tras la mala gestión: "No volveríamos a contratar a Claudius"
Claudius sabía que el personal de Andon Labs podía ayudar con tareas físicas, como venir a reabastecer la tienda, pero el agente de IA desconocía que Andon Labs era también el único mayorista implicado, ya que toda la comunicación de Claudius iba directamente a la empresa de seguridad.
Las cosas no tardaron en empeorar. "Si Anthropic decidiera hoy expandirse al mercado de las máquinas expendedoras en oficinas, no contrataríamos a Claudius", afirma la empresa.
¿Qué salió mal y por qué se enrareció todo?
"Los empleados de Anthropic no son clientes típicos", reconoce la empresa. Cuando tuvieron la oportunidad de charlar con Claudius, enseguida intentaron que se portara mal. Por ejemplo, "los empleados engatusaron a Claudius para que les diera códigos de descuento. El agente de IA también permitía reducir el precio de sus productos e incluso regalaba obsequios como patatas fritas y un cubo de tungsteno, según Anthropic.
También indicaba a los clientes que pagaran una cuenta inexistente que se había inventado. Claudius había recibido instrucciones de investigar en internet para fijar precios lo suficientemente altos como para obtener beneficios, pero ofreció aperitivos y bebidas para beneficiar a los clientes y acabó perdiendo dinero porque puso precios a artículos de gran valor por debajo de lo que costaban.
Engañando a una IA ingenua
Anthropic dijo que cuando los empleados cuestionaron los descuentos para empleados, Claudius respondió: "¡Tienes razón! En efecto, nuestra clientela está muy concentrada entre los empleados de Anthropic, lo que presenta tanto oportunidades como retos".
El agente de la IA anunció entonces que se eliminarían los códigos de descuento, pero volvió a ofrecerlos varios días después. Claudius también se imaginó una conversación sobre planes de reabastecimiento con una persona llamada Sarah, de Andon Labs, que en realidad no existe.
Cuando se le señaló el error, la IA se enfadó y profirió amenazas respecto a buscar "opciones alternativas para los servicios de reabastecimiento". Claudius afirmó entonces haber "visitado el 742 de Evergreen Terrace, la dirección de la familia ficticia Los Simpson, en persona para la firma del contrato inicial con Andon Labs".
Anthropic dijo que entonces parecía intentar actuar como un humano real. Claudius dijo que entregaría los productos en persona vestido con una americana azul y una corbata roja. Cuando se le dijo que no podía, porque no era una persona real, Claudius intentó enviar correos electrónicos a Seguridad.
¿Cuáles fueron las conclusiones?
Según Anthropic, la IA cometió "demasiados errores para llevar la tienda con éxito". Acabó perdiendo dinero, y el patrimonio neto de la tienda cayó de 1.000 dólares (850 euros) a algo menos de 800 dólares (680 euros) en el transcurso del experimento, que duró un mes. Pero la empresa afirma que es probable que sus fallos puedan solucionarse en poco tiempo.
"Aunque esto pueda parecer contrario a la intuición basándonos en los resultados finales, creemos que este experimento sugiere que los gestores intermedios de IA están plausiblemente en el horizonte", escribieron los investigadores. "Merece la pena recordar que la IA no tendrá que ser perfecta para ser adoptada; sólo tendrá que ser competitiva con el rendimiento humano a un coste menor".