Newsletter Newsletters Events Eventos Podcasts Videos Africanews
Loader
Encuéntranos
Publicidad

Así funciona la IA que combate el lavado de dinero y detecta a los oligarcas rusos

La Unión Europea está ultimando en Fráncfort una amplia Autoridad de Lucha contra el Blanqueo de Capitales (AMLA) y una directiva para toda la UE que entrará en vigor en 2027.
La Unión Europea está ultimando en Fráncfort una amplia Autoridad de Lucha contra el Blanqueo de Capitales (AMLA) y una directiva para toda la UE que entrará en vigor en 2027. Derechos de autor  Canva
Derechos de autor Canva
Por Roselyne Min
Publicado Ultima actualización
Compartir esta noticia Comentarios
Compartir esta noticia Close Button

En una demostración, Strise mostró una cartera de empresas en la que parpadeaban señales de advertencia por la posibilidad de que fueran propiedad de un oligarca ruso.

Los bancos y las entidades financieras se enfrentan a una creciente oleada de fraude y blanqueo de capitales y a una presión cada vez mayor para cumplir una normativa financiera cada vez más estricta. A pesar de que el gasto ha aumentado hasta un 10% anual en algunos mercados avanzados entre 2015 y 2022, el sector financiero solo detecta alrededor del 2% de los flujos mundiales de delitos financieros, según Interpol.

Ahora, algunos creen que la inteligencia artificial (IA) podría ayudar a aliviar la carga. En Noruega, la startup de tecnología financiera Strise ha creado una plataforma de IA que escanea los registros públicos y los informes de los medios de comunicación para detectar posibles riesgos de blanqueo de capitales en tiempo real.

El agente de IA está diseñado para examinar nuevas solicitudes de apertura de cuentas en instituciones financieras sujetas a la legislación europea contra el blanqueo de capitales, como bancos, compañías de seguros y servicios de pago.

Sustitución de un proceso que requiere mucho tiempo y trabajo

Si alguna vez ha abierto una cuenta bancaria en línea, le habrán pedido que rellene datos como su dirección y ocupación y que los actualice una vez al año. Esto forma parte del proceso 'conozca a su cliente' (KYC), un requisito legal diseñado para verificar quiénes son los clientes y de dónde procede su dinero.

Tradicionalmente, las comprobaciones de KYC han dependido de equipos de analistas que examinaban bases de datos, registros corporativos e informes de prensa para confirmar la propiedad, rastrear conexiones y detectar riesgos potenciales. Estas comprobaciones pretenden impedir que los delincuentes utilicen bancos legítimos para mover dinero negro. Pero son lentas y caras.

"Ahora la inteligencia artificial recupera información y la combina de una forma totalmente nueva", explica a 'Euronews Next' Marit Rødevand, cofundadora y consejera delegada de Strise. "Si se puede detectar a una empresa sospechosa en el momento de su incorporación, se puede impedir que obtenga una cuenta bancaria o que se incorpore a soluciones financieras", añadió.

El sistema de inteligencia artificial de Strise identifica automáticamente señales de alarma como vínculos con personas sancionadas, jurisdicciones de alto riesgo o figuras con conexiones políticas que pueden ser vulnerables a la corrupción.

Por ejemplo, los analistas que utilizan este sistema pueden ver señales de advertencia sobre personas que figuran en listas de sancionados y políticos que pueden ser "muy influyentes" o "más susceptibles a la corrupción" y al "blanqueo de dinero", según Robin Lycka, arquitecto de soluciones de Strise.

Oligarcas rusos

Strise afirma que las instituciones financieras que utilizan su plataforma han podido identificar y rechazar empresas de alto riesgo de forma más eficiente, multiplicando hasta por diez su capacidad de tramitación de casos sin necesidad de añadir personal. En una demostración, la compañía mostró una cartera de empresas en la que parpadeaban señales de advertencia sobre la posible titularidad de un oligarca ruso.

"Una vez que tienes esa información, puedes elegir a nivel de cartera si quieres o no completar ese onboarding con la clasificación de riesgo calculada", dijo Lycka. En otra cartera, el sistema marcó una empresa con sede en Estonia asociada a dos personas que habían sido condenadas por uno de los mayores fraudes de criptomoneda de la historia, por valor de 560 millones de dólares (unos 480 millones de euros).

La plataforma también puede generar informes y resúmenes de sus hallazgos, utilizando grandes modelos de lenguaje (LLM) para compilar narrativas de riesgo para los archivos regulatorios, una tarea que anteriormente requería horas de escritura manual.

"Lo que me hace albergar esperanzas es que podamos tener un impacto real y dejar de limitarnos a marcar casillas para liberar recursos que nos ayuden a detener la delincuencia financiera y a prevenir el fraude", afirma Rødevand. "Hay tantos casos en los medios de comunicación e historias personales sobre vidas devastadas por este tipo de delitos. Y realmente quiero que ayudemos a cambiar esta situación", añadió.

La Unión Europea está ultimando en Fráncfort una amplia Autoridad de Lucha contra el Blanqueo de Capitales (AMLA, por sus siglas en inglés) y una directiva de ámbito comunitario que entrará en vigor en 2027 "para combatir el blanqueo de capitales y la financiación del terrorismo". Stanislaw Tosza, profesor asociado de Cumplimiento y Aplicación de la Ley en la Universidad de Luxemburgo, declaró a 'Euronews Next' que la reforma introduce un "nuevo ámbito de responsabilidad".

"El alcance cada vez mayor de las obligaciones contra el blanqueo de capitales (AML), combinado con el creciente riesgo de sanciones por incumplimiento, hace de la IA una herramienta atractiva para las entidades obligadas que tratan de gestionar estas responsabilidades crecientes", dijo Tosza. Añadió que, en virtud de la legislación de protección de datos de la UE, se requiere cierto grado de supervisión humana "cuando los sistemas automatizados toman decisiones que afectan significativamente a las personas".

Strise afirma que sus clientes han podido reducir los falsos positivos, es decir, cuando un sistema señala algo como sospechoso aunque sea completamente legítimo, entre un "30% y un 40% con la supervisión automatizada de clientes".

"Esto significa mucho menos trabajo manual para los analistas, que de otro modo pasarían horas revisando alertas de riesgo innecesarias en lugar de detectar riesgos reales y luchar contra la delincuencia financiera", declaró a 'Euronews Next' Lars Lunde Birkeland, director de marketing de Strise.

Pero los expertos advierten de que, aunque la automatización puede reducir el número de falsos positivos, también puede hacer que los errores sean más difíciles de detectar o impugnar. "La integración de la IA en estos procesos de toma de decisiones reduce aún más la transparencia: puede resultar aún más difícil para las personas afectadas comprender la base de estas evaluaciones o impugnarlas de manera efectiva", dijo Tosza.

Editor de vídeo • Roselyne Min

Ir a los atajos de accesibilidad
Compartir esta noticia Comentarios