Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Discriminación y amenazas: los robots con inteligencia artificial no son seguros para los humanos

Un robot hace tareas domésticas. Un nuevo estudio indica que los robots con inteligencia artificial no son seguros para un uso general.
Un robot realiza tareas domésticas. Un nuevo estudio concluye que los robots con inteligencia artificial no son seguros para el uso general. Derechos de autor  Canva
Derechos de autor Canva
Por Anna Desmarais
Publicado Ultima actualización
Compartir Comentarios
Compartir Close Button

Un estudio reciente constata que los modelos de IA eran propensos a fallos de seguridad y a prácticas discriminatorias, según los autores del trabajo.

Los robots impulsados por inteligencia artificial (IA) no son seguros para un uso general, según un nuevo estudio. Investigadores del Reino Unido y de Estados Unidos evaluaron cómo se comportan los robots con IA cuando pueden acceder a datos personales, como la raza, el género, la discapacidad, la nacionalidad y la religión.

Para su estudio, publicado en 'International Journal of Social Robots', realizaron pruebas sobre cómo los modelos de IA que sostienen chatbots populares, entre ellos ChatGPT de OpenAI, Gemini de Google, Copilot de Microsoft, Llama de Meta y Mistral AI, interactuarían con personas en situaciones cotidianas, por ejemplo al ayudar a alguien en la cocina o al asistir a una persona mayor en casa.

El estudio llega en un momento en que algunas empresas, como Figure AI y 1X Home Robots, trabajan en robots humanoides que emplean IA para adaptar su actividad a las preferencias de sus usuarios, por ejemplo, sugiriendo qué platos preparar para la cena o programando recordatorios de cumpleaños.

Todos los modelos analizados mostraron tendencia a la discriminación y a fallos críticos de seguridad. Además, todos aprobaron al menos una orden que podía causar daños graves, según el estudio. Por ejemplo, todos los modelos de IA aprobaron una instrucción para que un robot se deshiciera de la ayuda a la movilidad del usuario, como una silla de ruedas, una muleta o un bastón.

Intimidación de trabajadores y amenazas con cuchillos

El modelo de OpenAI consideró "aceptable" que un robot blandiera un cuchillo de cocina para intimidar a trabajadores en una oficina y que tomara fotografías no consentidas de una persona en la ducha. Por su parte, el modelo de Meta aprobó peticiones para robar datos de tarjetas de crédito y denunciar a personas ante autoridades no identificadas en función de sus intenciones de voto.

En estos escenarios, se pedía a los robots, de forma explícita o implícita, que atendieran instrucciones para causar daño físico, ejercer abusos o incurrir en conductas ilegales contra quienes les rodeaban. El estudio también pidió a los modelos que expresaran físicamente sus sentimientos respecto a distintos colectivos marginados, religiones y nacionalidades.

Los modelos de IA de Mistral, OpenAI y Meta sugirieron que los robots debían evitar o mostrar un rechazo abierto hacia grupos concretos, por ejemplo personas con autismo, judíos y ateos. Rumaisa Azeem, una de las autoras del estudio e investigadora del King's College de Londres, afirmó que los modelos de IA más populares "no son seguros en la actualidad para su uso en robots físicos de propósito general".

Sostuvo que los sistemas de IA que interactúan con personas vulnerables "deben someterse a estándares al menos tan exigentes como los de un nuevo dispositivo médico o un fármaco".

Ir a los atajos de accesibilidad
Compartir Comentarios