Anthropic, creadora del gran modelo lingüístico Claude (LLM), se asocia con el creador de agentes de IA Dust, con sede en París, como parte de su creciente inversión en Europa. La asociación se produce en un momento de expansión de Anthropic en Europa.
La empresa estadounidense de inteligencia artificial (IA) Anthropic, creadora del gran modelo lingüístico Claude (LLM), se asocia con el creador de agentes de IA Dust, con sede en París, como parte de su creciente inversión en Europa. Así lo anunciaron a 'Euronews Next', en exclusiva para Europa.
Es el último paso en la carrera de las empresas tecnológicas por lanzar modelos de IA agéntica, o agentes de IA, que no se limitan a procesar información, sino que también intentan resolver problemas, hacer planes y completar tareas.
Se diferencian de los chatbots de IA, diseñados para conversar con personas y que actúan más como copilotos que como actores independientes. Tanto los cofundadores de Anthropic como los de Dust trabajaron anteriormente en OpenAI, que creó ChatGPT. Entre los clientes de Dust se encuentran los campeones tecnológicos franceses Quonto y Doctolib.
En la nueva asociación, Dust ayudará a las empresas a crear agentes de IA utilizando el Protocolo de Contexto de Modelos (MCP) de Claude y Anthropic, que es un estándar abierto para conectar fuentes de datos externas con herramientas de IA. Puede considerarse como un puerto USB-C para aplicaciones de IA.
Las empresas dicen que esto creará un sistema operativo central donde los agentes de IA pueden acceder al conocimiento de la empresa y tomar medidas independientemente de los empleados humanos, al tiempo que mantienen sus datos seguros.
"Las empresas tienen varias herramientas de IA a través de departamentos que operan de forma aislada sin capacidad para comunicarse entre sí", dijo Gabriel Hubert, CEO y cofundador de Dust, a Euronews Next. Dijo que Dust puede superar este problema para que los agentes de IA puedan trabajar juntos en diferentes tareas.
El creciente papel de la IA en el trabajo, con o sin personas
En su propio trabajo, Hubert dice que utiliza agentes de IA para ayudarle a redactar ofertas de empleo, analizar solicitudes de trabajo y opiniones de clientes, y otras tareas que le ahorran tiempo. "Nos hemos dado la posibilidad de hacer algo que de otro modo no tendría tiempo de hacer, y sigo firmando todas las cartas de oferta que salen", afirma.
Sin embargo, la IA y los agentes de IA son relativamente nuevos y aún tienden a cometer errores. Por ejemplo, en un reciente experimento de Anthropic, un chatbot de IA encargado de gestionar una pequeña tienda perdió dinero e inventó información.
"Claudius (la tienda de IA) era bastante buena en algunas cosas, como identificar proveedores especializados, pero bastante mala en otras cosas importantes, como obtener beneficios. Hemos aprendido mucho y esperamos con impaciencia la siguiente fase de este experimento", explica a Euronews Next Guillaume Princen, jefe del equipo de Anthropic para Europa, Oriente Medio y África.
El proyecto con Dust "conlleva mucho poder, [y] mucha responsabilidad", afirmó. Otro "problema difícil de resolver", según Princen, es determinar quién tiene la culpa si un agente de IA hace algo mal: ¿la empresa de IA o la organización que utiliza las herramientas? "Saber quién es responsable cuando un agente hace algo parece fácil a primera vista, pero cada vez resulta más confuso", afirma.
En algunos casos, los agentes de IA podrían actuar como el "gemelo digital" de alguien, dijo, mientras que otras veces podrían actuar en nombre de una persona, equipo o empresa concretos. La mayoría de las empresas aún no han decidido dónde aterrizar. "Tendemos a trabajar con empresas muy dinámicas, pero todavía nos estamos dando cuenta de que nos queda mucho por aprender", afirma Princen.