Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

La IA engaña a los sondeos: imita respuestas humanas con precisión casi total

Una investigación reciente muestra que las herramientas de IA pueden engañar a los sistemas, haciéndoles creer que son personas, y falsear resultados de encuestas en línea.
Una nueva investigación revela que las herramientas de IA simulan ser humanas ante los sistemas en línea y alteran los resultados de encuestas. Derechos de autor  Canva
Derechos de autor Canva
Por Anca Ulea
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

"Ya no podemos confiar en que las respuestas a las encuestas procedan de personas reales", señaló el autor principal de un nuevo estudio de la Universidad de Dartmouth.

La inteligencia artificial (IA) está haciendo casi imposible distinguir las respuestas humanas de los bots en las encuestas de opinión pública en internet, según una nueva investigación.

Un estudio de la Universidad de Dartmouth, publicado el lunes en 'Proceedings of the National Academy of Sciences', muestra que los grandes modelos de lenguaje (LLM) pueden alterar las encuestas de opinión a gran escala.

"Pueden imitar perfiles humanos, eludir los métodos de detección actuales y ser programados con facilidad para sesgar de forma sistemática los resultados de las encuestas en línea", según el estudio.

Los hallazgos revelan "una vulnerabilidad crítica en nuestra infraestructura de datos", que supone "una posible amenaza existencial para la investigación en línea no supervisada", dijo el autor del estudio, Sean Westwood, profesor asociado de gobierno en Dartmouth.

La interferencia de la IA en las encuestas podría añadir otra capa de complejidad a comicios cruciales. Ya se han detectado campañas de desinformación impulsadas por IA por parte de grupos de monitorización en internet en elecciones europeas, incluidas las últimas elecciones en Moldavia.

Engaña al sistema

Para probar la vulnerabilidad del software de encuestas en línea, Westwood diseñó y construyó un "encuestado sintético autónomo", una herramienta sencilla de IA que opera a partir de una instrucción de 500 palabras.

En cada encuesta, la herramienta adoptaba un perfil demográfico basado en información asignada aleatoriamente, incluida la edad, el sexo, la raza, la educación, los ingresos y el estado de residencia.

Con ese perfil, simulaba tiempos de lectura realistas, generaba movimientos del ratón similares a los humanos y tecleaba respuestas abiertas, pulsación a pulsación, con errores tipográficos verosímiles y correcciones.

En más de 43.000 pruebas, la herramienta engañó al 99,8 % de los sistemas, haciéndoles creer que era humana. No cometió ningún error en problemas de lógica y sorteó las salvaguardas tradicionales diseñadas para detectar respuestas automatizadas, como reCAPTCHA.

"No son bots rudimentarios", dijo Westwood. "Piensan cada pregunta y actúan como personas reales y cuidadosas, haciendo que los datos parezcan completamente legítimos".

¿Podemos seguir confiando en los resultados de las encuestas?

El estudio analizó la vulnerabilidad práctica de las encuestas políticas, tomando como ejemplo las elecciones presidenciales de 2024 en Estados Unidos.

Westwood concluyó que bastaría con entre diez y 52 respuestas falsas generadas por IA para cambiar el resultado previsto de la elección en siete encuestas nacionales de máximo nivel, durante la última semana clave de campaña.

Cada encuestado automatizado costó apenas cinco céntimos de dólar (cuatro céntimos de euro).

En las pruebas, los bots funcionaron incluso cuando se programaron en ruso, mandarín o coreano, y produjeron respuestas impecables en inglés. Esto significa que podrían ser explotados fácilmente por actores extranjeros, algunos de los cuales cuentan con recursos para diseñar herramientas aún más sofisticadas que eviten ser detectadas, advirtió el estudio.

La investigación científica también depende en gran medida de datos de encuestas, con miles de estudios revisados por pares que se publican cada año basados en datos de plataformas de recogida en línea.

"Con datos de encuestas contaminados por bots, la IA puede envenenar todo el ecosistema del conocimiento", dijo Westwood.

Su estudio sostiene que la comunidad científica necesita con urgencia desarrollar nuevas formas de recoger datos que no puedan ser manipulados por herramientas avanzadas de IA.

"La tecnología existe para verificar la participación humana real, solo hace falta la voluntad para aplicarla", dijo Westwood. "Si actuamos ahora, podremos preservar tanto la integridad de las encuestas como la rendición de cuentas democrática que aportan".

Ir a los atajos de accesibilidad
Compartir Comentarios

Noticias relacionadas

La era de la verificación de edad: ¿Qué países de la UE restringen el acceso a páginas porno?

Anthropic asegura que unos piratas informáticos chinos han empleado su IA en un ciberataque

La falta de mano de obra cualificada lastra la ciberseguridad de las empresas alemanas