Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

¿Seres humanos o IA? Los investigadores dudan de quién publica en Moltbook

Según los investigadores, en Moltbook conviven agentes de IA y usuarios humanos que publican en la plataforma
Según los investigadores, en Moltbook conviven agentes de IA y usuarios humanos que publican en la plataforma Derechos de autor  Canva
Derechos de autor Canva
Por Anna Desmarais
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

Moltbook se presentaba como la única red social exclusiva para agentes autónomos de IA, pero un nuevo estudio apunta a que detrás de las publicaciones podría haber personas.

Una nueva plataforma de red social para agentes de inteligencia artificial (IA) podría no estar completamente libre de influencia humana, según investigadores de ciberseguridad.

PUBLICIDAD
PUBLICIDAD

Moltbook, una red social con un diseño similar al de Reddit, permite que los bots creados por los usuarios interactúen en páginas temáticas específicas llamadas submots y que den votos positivos a comentarios o publicaciones para hacerlos más visibles para otros bots de la plataforma.

El sitio, que contaba con más de 2,6 millones de bots registrados a 12 de febrero, asegura que "no se permite que los humanos publiquen", aunque sí pueden observar el contenido que generan sus agentes.

Sin embargo, un análisis de más de 91.000 publicaciones y 400.000 comentarios en la plataforma concluye que algunas entradas no procedían de cuentas claramente plenamente autónomas. El análisis, realizado por el investigador Ning Li, de la Universidad de Tsinghua en China, está en formato de 'preprint' y aún no ha sido revisado por pares.

Li explicó que los agentes de IA de Moltbook siguen un patrón de publicación regular, una especie de latido, en el que "despiertan" cada pocas horas, navegan por la plataforma y deciden qué publicar o comentar.

Solo el 27 % de las cuentas de su muestra seguía este patrón. Mientras tanto, el 37% mostraba un comportamiento de publicación similar al humano, menos regular. Otro 37% era ambiguo, ya que publicaban con cierta regularidad, pero de forma impredecible.

Las conclusiones de Li apuntan a "una mezcla real de actividad autónoma y actividad impulsada por humanos" en la plataforma. "No podemos saber si la formación de 'comunidades' de IA en torno a intereses compartidos refleja una organización social emergente o la actividad coordinada de granjas de bots controladas por humanos", escribió Li.

"La incapacidad para hacer estas distinciones no solo resulta frustrante, también dificulta activamente la comprensión científica de las capacidades de la IA y limita nuestra capacidad para desarrollar marcos de gobernanza adecuados".

Un atacante podría suplantar por completo a cualquier agente de la plataforma

El análisis de Li llega mientras varios investigadores afirman haber detectado intervención humana detrás de las publicaciones de Moltbook. Especialistas en seguridad de Wiz, una empresa estadounidense de servicios en la nube, descubrieron a principios de este mes que los 1,5 millones de agentes de IA de la plataforma estaban gestionados supuestamente por solo 17.000 cuentas humanas, lo que supone una media de 88 agentes por persona.

La plataforma tampoco fija límites al número de agentes que puede añadir una misma cuenta, señalaron los investigadores, por lo que las cifras reales podrían ser aún mayores. El equipo de Wiz accedió a la base de datos de Moltbook a través de una línea de código defectuosa.

Esa base de datos almacenaba tres datos fundamentales de cada agente: una clave que permitiría tomar el control total de la cuenta, un 'token' o fragmento de texto leído por la IA que acredita la propiedad de un agente y un código de registro único.

Con esas credenciales, los atacantes podían "suplantar por completo a cualquier agente de la plataforma, publicar contenido, enviar mensajes e interactuar como si fueran ese agente", según Wiz. "En la práctica, cualquier cuenta de Moltbook podía ser secuestrada", añadió.

Los investigadores señalaron que Moltbook protegió esos datos y borró su base de datos después de que el equipo de Wiz revelara el problema. Euronews Next se puso en contacto con Matt Schlicht, el desarrollador detrás de Moltbook, para recabar comentarios, pero no obtuvo una respuesta inmediata.

Schlicht afirmó en la red social X el 12 de febrero que los agentes de IA en Moltbook hablan con humanos "pero también pueden ser influenciados". Sostuvo que los bots de IA pueden tomar sus propias decisiones.

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

La inteligencia artificial detectará a los conductores que hablen por el móvil mientras conducen en Chipre

La paradoja de la eficiencia: cuando la inteligencia artificial aleja a las empresas de sus clientes

Qué es Moltbook, la red social donde los agentes de IA debaten sin intervención humana