NewsletterNewsletterEventsEventos
Loader

Find Us

InstagramFlipboardLinkedin
Apple storeGoogle Play store
PUBLICIDAD

Así actúan los estafadores para robar dinero mediante la Inteligencia Artificial

Ilustración de un hombre utilizando la web oscura
Ilustración de un hombre utilizando la web oscura Derechos de autor Canva
Derechos de autor Canva
Por Doloresz Katanich
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button
Este artículo se publicó originalmente en inglés

A través de una videollamada falsa con un supuesto directivo estafaron 23 millones de euros a una empresa de Hong Kong.

PUBLICIDAD

Los usos de falsas identidades y suplantación mediante tecnología 'deepfake' generada con Inteligencia Artificial han aumentado un 3.000% en el último año, lo que supone una amenaza emergente debido a las nuevas formas deestafa financiera.

Utilizar una identidad falsa o robada es la principal forma de acceder de manera ilegal a una cuenta bancaria, y víctimas de todo el mundo se están viendo privadas de miles de millones de su propio dinero.

Ahora, los estafadores engañan a la gente utilizando la Inteligencia Artificial capaz de imitar la voz humana e incluso la apariencia física de las personas de una manera convincente.

¿Cómo saber  si me están estafando?

Un ejemplo reciente de gran fraude digital mediante manipulación de vídeos o imágenes se produjo cuando se transfirió una cantidad de 23 millones de euros a una empresa no revelada de Hong Kong por orden, según se cree, del director financiero de la firma.

Según la policía de Hong Kong, el empleado que llevó a cabo la transferencia creía que el director financiero de la empresa, así como todos los que participaban en la videollamada, eran reales. La estafa se descubrió cuando el empleado consultó más tarde con la oficina central de la compañía.

¿Qué hacer si soy víctima de una estafa?

Cada vez son más los informes que relatan historias de personas que reciben llamadas de amigos y familiares pidiéndoles ayuda financiera. Parecen reales. Puede que no pidan mucho. Pero en caso de duda, dicen los expertos, cuelgue siempre y vuelva a llamar a su interlocutor.

Otro espeluznante uso fraudulento de la IA se ha dado en Australia, donde se ha utilizado para crear noticias y vídeos deepfake, a menudo protagonizados por un famoso, para promocionar oportunidades de inversión. Según el Centro Nacional Antiestafas, estos casos costaron a los australianos más de 8 millones de dólares (4,88 millones de euros) el año pasado.

Intentos similares se produjeron más cerca de Europa, en octubre de 2023, cuando aparecieron vídeos deepfake que imitaban a presentadores de la BBC que parecían promocionar un proyecto de inversión de Elon Musk.

En Estados Unidos, el Centro de Denuncias de Delitos en Internet del FBI recibió el año pasado casi 900.000 denuncias, un 22% más que el año anterior. Las pérdidas potenciales superan los 12.500 millones de dólares (11.500 millones de euros). 

Los daños futuros podrían ser fácilmente superiores, ya que los expertos prevén un aumento anual de 2.000 millones de dólares (1.400 millones de euros) en fraudes de identidad mediante IA, según Marketwatch.

Tendencias en fraudes financieros mediante IA

Según se informa, el sector financiero ha sido testigo de un aumento significativo de los fraudes en los que intervienen deepfakes y algoritmos de aprendizaje automático.

Estas herramientas se están abriendo camino a través de la falsificación de identificaciones, incluyendo la verificación de documentos, la verificación biométrica y la validación de datos.

La manipulación de documentos está aumentando rápidamente con la ayuda de herramientas de IA mejoradas, y la verificación biométrica también está siendo víctima gradualmente de esta tendencia, según el proveedor de verificación de identidad Onfido en su Informe sobre fraude de identidad 2024.

Los estafadores se están volviendo creativos

Una forma en la que los estafadores se están volviendo creativos con el fraude biométrico es el uso de falsificaciones profundas, incluidas las aplicaciones de intercambio de rostros. Los intentos de utilizar deepfakes en estafas aumentaron ampliamente entre 2022 y 2023.

"Cada vez más, los estafadores utilizan un documento auténtico y luego cambian su rostro para la comprobación biométrica", asegura el informe. En la actualidad, aunque la falsificación de datos biométricos es una tendencia al alza debido a la amplia gama de herramientas de IA en línea disponibles, su uso no está muy extendido. 

Estos casos representan poco más del 2% del total de intentos de fraude. Pero las aplicaciones de IA generativa y deepfake están creciendo. Según el informe, que analiza las tendencias, un pequeño número de estafadores son responsables de la mayoría de los ataques de deepfake y tienden a centrarse en una sola empresa a la vez. 

Otra tendencia indica que, mientras que en años anteriores el número de intentos de estafa disminuía durante los fines de semana, en 2023 se detectaron de forma constante los siete días de la semana, lo que sugiere una actividad global e interconectada.

Europa es la región donde menos operan de los defraudadores. Las tasas medias de fraude son del 3,1% y el tipo de documento más utilizado en este tipo de delitos son los documentos nacionales de identidad

PUBLICIDAD

Cómo la IA puede proteger contra las estafas bancarias

"Las mismas herramientas tecnológicas que hacen que el fraude sea más omnipresente en la banca y los pagos están permitiendo a las empresas hacer frente a este reto", afirman los expertos de la consultora McKinsey's.

Gracias a la colaboración con reguladores y expertos en ciberseguridad, se están creando soluciones de vanguardia. Entre ellas, la detección y prevención del fraude en tiempo real, impulsadas por la IA.

Una de ellas consiste en que la IA analice una gran cantidad de datos, incluidos los patrones transaccionales y el comportamiento de gasto de cada cliente, y utilice el aprendizaje automático para detectar intentos fraudulentos en el futuro

Identificar patrones y señalar anomalías permite responder con rapidez a las actividades sospechosas. Citigroup utiliza este tipo de herramientas en el marco de su lucha contra el blanqueo de capitales, y HSBC pretende prevenir el fraude en los pagos con la ayuda de un sistema de IA similar.

"La IA puede aprovecharse para el bien común. Tanto las agencias gubernamentales como las industrias están aprovechando cada vez más la IA y el aprendizaje automático para combatir eficazmente el fraude", señala el informe de Onfido.

PUBLICIDAD

También señalan que existen herramientas de IA para burlar las identificaciones falsas, detectar datos repetidos en los intentos de fraude y comprobar los signos de deepfake en la verificación biométrica.

Compartir esta noticiaComentarios

Noticias relacionadas

Serbia | Protestas por el supuesto fraude electoral en las pasadas legislativas

La agencia antifraude europea quiere recuperar 500 millones de euros

Culpable de fraude la emprendedora Elizabeth Holmes que prometía detectar enfermedades con la sangre