Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Un estafador usa IA para hacerse pasar por Marco Rubio y engañar a políticos

Imagen de archivo para ilustrar a un hacker accediendo a información.
Imagen de archivo para ilustrar a un hacker accediendo a información. Derechos de autor  Pexels
Derechos de autor Pexels
Por Anna Desmarais
Publicado Ultima actualización
Compartir esta noticia Comentarios
Compartir esta noticia Close Button

La voz de Marco Rubio, alto cargo de la Administración Trump, fue suplantada por unos estafadores haciendo uso de la inteligencia artificial. Los expertos alertan de que los piratas usan vídeos cortos que se han colgado en redes sociales para clonar las voces. Le explicamos cómo puede evitarlo.

PUBLICIDAD

Cuando un grupo de políticos de alto nivel descolgó el teléfono, pensaron que estaban hablando con el secretario de Estado de Estados Unidos, Marco Rubio. Pero no era así: estaban hablando con un estafador que utilizó inteligencia artificial (IA) para hacerse pasar por uno de los más altos funcionarios de la Administración del presidente estadounidense Donald Trump.

El impostor se puso en contacto con tres ministros de Asuntos Exteriores, un gobernador de Estados Unidos y un miembro del Congreso estadounidense, enviándoles mensajes de voz y de texto haciéndose pasar por Rubio a través de la aplicación encriptada Signal, según la historia de la que informó en primer lugar 'The Washington Post'.

Según el informe, las autoridades estadounidenses no saben quién está detrás de la suplantación, pero creen que el estafador intentaba manipular a poderosos funcionarios del Gobierno para obtener acceso a información o cuentas.

Las estafas con IA son cada vez más comunes a medida que la tecnología se vuelve más sofisticada, y el 28% de los adultos del Reino Unido afirman que creen haber sido objeto de ellas, según una encuesta de Starling Bank.

Pero, ¿cómo utilizan exactamente los estafadores la IA y cómo pueden evitarse estas estafas? Se lo explicamos para que usted no sea víctima de estos malhechores.

¿Cómo utilizan los estafadores la IA?

Expertos de la Universidad Charles Sturt de Australia explican que los estafadores pueden clonar una voz con un fragmento de audio de tres segundos y engañar a amigos o familiares haciéndoles creer que un ser querido necesita dinero urgentemente.

Las muestras de voz pueden proceder de vídeos cortos que se han colgado en plataformas de redes sociales como TikTok, prosiguen los expertos. La IA trabaja para crear una réplica realista capturando los patrones de habla, el acento y la respiración de una persona, y puede utilizarse para leer texto con precisión.

Una alerta del FBI también describió estos mensajes como "smishing y vishing" porque a menudo contienen enlaces que se envían con el pretexto de trasladar la conversación a otra plataforma, de forma similar al phishing por correo electrónico.

Esto es lo que hay que hacer para evitar el fraude

Los expertos en ciberseguridad Matthew Wright y Christopher Schwartz, de la Universidad de Rochester (EE.UU.), recomiendan a la gente que esté "atenta" a las llamadas inesperadas, incluso de personas que conoce bien. Enviar un mensaje de texto o un correo electrónico a alguien antes de una llamada prevista puede ayudar a validar la identidad de la otra persona.

Wright y Schwartz escriben en 'Conversation' que no basta con confiar en el identificador de llamadas, porque los clonadores de voz también pueden falsificarlo. Las llamadas desde números desconocidos también pueden ser un riesgo, según una hoja informativa sobre suplantación de identidad de la Comisión Federal de Comunicaciones de Estados Unidos.

Es importante verificar quién es la persona que le llama o te envía un mensaje de voz, así que antes de responder, investiga el número y, si es alguien que conoces, llámele al número de teléfono que tiene para verificar su autenticidad, aconseja el FBI.

El FBI sugiere comprobar la información de contacto, la dirección de correo electrónico o las URL para detectar "ligeras diferencias" que los estafadores podrían estar utilizando para ganarse su confianza. Por ejemplo, según la agencia, los delincuentes pueden utilizar en los mensajes fotografías de dominio público o "pequeñas alteraciones en los nombres" o la información para engañar a las víctimas.

Otro indicio en un mensaje de voz podría ser que el tono y la elección de palabras empleadas sean diferentes de los que usted está acostumbrado a escuchar de un contacto conocido, según el FBI. En caso de duda, se puede establecer una palabra clave o frase secreta entre los miembros de la familia para verificar sus identidades.

Para evitar ser el blanco de una estafa, tenga cuidado al revelar información personal en internet, como su fecha de nacimiento, número de teléfono, segundo nombre o nombres de mascotas. Según Wright y Schwartz, estos datos pueden utilizarse junto con la clonación de voz para hacerse pasar por usted ante bancos u otras entidades.

Wright y Schwartz recomiendan ser conscientes de los prejuicios intelectuales y emocionales de cada uno, porque es probable que los estafadores se aprovechen de ellos. Si el estafador se hace pasar por alguien que usted conoce, piense dos veces lo que le está diciendo, continúan. Si es poco habitual o confirma sus peores temores sobre alguien, proceda con cautela.

Ir a los atajos de accesibilidad
Compartir esta noticia Comentarios

Noticias relacionadas

Liberan a los hackers detenidos en España por filtrar datos de Sánchez y lideres políticos

¿Quién es Predator Sparrow, el grupo de hackers detrás de los ciberataques a Irán?

Trump sugiere que se ha llegado a un acuerdo con China sobre TikTok: ¿Qué necesita saber?