Clonan la voz de un gerente y estafan a un banco por 35 millones de dólares
Un grupo de ciberdelincuentes clonó la voz del director de una empresa y logró estafar más de 35 millones de dólares a un banco de Emiratos Árabes Unidos, informó este jueves Forbes citando un documento judicial al que ha tenido acceso.
A principios de 2020, el gerente de un banco en los Emiratos Árabes Unidos recibió una llamada de un hombre cuya voz reconoció: un director de una empresa con quien había hablado antes. El director tenía buenas noticias: su empresa estaba a punto de realizar una adquisición, por lo que necesitaba que el banco autorizara algunas transferencias por valor de 35 millones de dólares.
Se había contratado a un abogado llamado Martin Zelner para coordinar los procedimientos y el gerente del banco podía ver en su bandeja de entrada los correos electrónicos del director y Zelner, confirmando qué dinero necesitaba para moverse a dónde. El gerente del banco, creyendo que todo parecía legítimo, comenzó a hacer las transferencias.
Lo que no sabía era que lo habían engañado como parte de una elaborada estafa, en la que los estafadores habían usado tecnología de “voz profunda” para clonar el discurso del director, según un documento judicial desenterrado por Forbes en el que los Emiratos Árabes Unidos han buscó la ayuda de investigadores estadounidenses para rastrear $ 400,000 de fondos robados que ingresaron en cuentas con sede en EE. UU. mantenidas por Centennial Bank. Los Emiratos Árabes Unidos creen que fue un esquema elaborado, que involucró al menos a 17 personas, que envió el dinero robado a cuentas bancarias en todo el mundo.
En el documento se dieron pocos detalles más, y no se proporcionó ninguno de los nombres de las víctimas. La Fiscalía de Dubai, que lidera la investigación, no había respondido a las solicitudes de comentarios en el momento de la publicación. Martin Zelner, un abogado con sede en Estados Unidos, también había sido contactado para hacer comentarios, pero no había respondido en el momento de la publicación.
Es solo el segundo caso conocido de estafadores que supuestamente usan herramientas de modelado de voz para llevar a cabo un atraco, pero parece haber tenido mucho más éxito que el primero, en el que los estafadores utilizaron la tecnología para hacerse pasar por un director ejecutivo de una empresa de energía con sede en el Reino Unido en un intento de robar $ 240,000 en 2019, según el Wall Street Journal .
El caso de los Emiratos Árabes Unidos muestra cuán devastadoras pueden ser estas estafas de alta tecnología y aterriza en medio de advertencias sobre el uso de IA para crear las llamadas imágenes y voces falsas profundas en el ciberdelito.
“Las falsificaciones profundas de audio y visuales representan el fascinante desarrollo de la tecnología del siglo XXI, pero también son potencialmente increíblemente peligrosas y representan una gran amenaza para los datos, el dinero y las empresas”, dice Jake Moore, un ex oficial de policía del Departamento de Policía de Dorset en el Reino Unido y ahora es un experto en ciberseguridad en la empresa de seguridad ESET. “Actualmente estamos en la cúspide de que los actores malintencionados cambien su experiencia y recursos para utilizar la última tecnología para manipular a las personas que, inocentemente, desconocen los dominios de la tecnología falsa e incluso su existencia.
“Manipular audio, que es más fácil de orquestar que hacer videos falsos profundos, solo aumentará en volumen y sin la educación y el conocimiento de este nuevo tipo de vector de ataque, junto con mejores métodos de autenticación, es probable que más empresas sean víctimas de conversaciones muy convincentes “.
Una vez que una tecnología confinada al ámbito de las travesuras ficticias como Mission: Impossible , la clonación de voz ahora está ampliamente disponible. Varias nuevas empresas tecnológicas están trabajando en tecnologías de voz de inteligencia artificial cada vez más sofisticadas, desde Aflorithmic de Londres hasta Respeecher de Ucrania y Resemble.AI de Canadá. La tecnología causó revuelo en los últimos meses con la revelación de que el difunto Anthony Bourdain tenía su voz sintetizada para un documental sobre su vida . Mientras tanto, reconociendo el potencial de uso malintencionado de la IA, un puñado de empresas, como la firma de seguridad Pindrop, valorada en 900 millones de dólares, ahora afirman que pueden detectar voces sintetizadas y así prevenir fraudes.
Si hay grabaciones de usted hablando disponibles en línea, ya sea en las redes sociales, YouTube o en el sitio web de un empleador, es muy posible que haya una batalla secreta por el control de su voz sin que usted lo sepa.