Noticias

Voice Fakes para robar criptos

Exponemos los ataques realizados con inteligencia artificial para imitar voces, vulnerando la seguridad de los usuarios.

single-image

En nuestros artículos sobre Deepfakes hemos podido observar como estas plataformas basadas en Inteligencia Artificial logran imitar la realidad casi a la perfección, tanto en videos como imágenes. En esta ocasión expondremos una nueva creación de la misma, utilizada lamentablemente para realizar actos ilícitos.

En marzo, estafadores utilizaron un software basado en inteligencia artificial para hacerse pasar por un director ejecutivo de la empresa matriz alemana de una empresa de energía anónima con sede en el Reino Unido, engañando a su subordinado, el CEO de una empresa derivada, para que realizara una transferencia monetaria supuestamente urgente, contactándose por llamada de teléfono. El CEO realizó la transferencia solicitada a un proveedor húngaro y fue contactado nuevamente para asegurar que la transferencia se reembolsará de inmediato. Eso también parecía creíble.

Sin embargo, cuando los fondos de reembolso aún no aparecían en las cuentas, llegó una tercera llamada de Austria, y la persona que llama nuevamente alegaba que el director ejecutivo de la empresa matriz solicitaba otra transferencia urgente, el CEO comenzó a sospechar. A pesar de reconocer lo que parecía ser la voz de su jefe, el CEO se negó a hacer la transferencia, al darse cuenta de que algo andaba mal.

Aunque el CEO reconoció el acento familiar y las entonaciones del director ejecutivo, resulta que el jefe no estaba haciendo la llamada. Los fondos que transfirió a Hungría se trasladaron posteriormente a México y otros lugares y las autoridades aún no han identificado a ningún sospechoso.

Al pretender ser otra persona en el teléfono, un estafador de voz puede acceder a información privada que de otra manera no estaría disponible y puede ser utilizada para propósitos nefastos. La capacidad de fingir la identidad de otra persona con la voz es más fácil que nunca con las nuevas herramientas de audio y una mayor dependencia de los centros de llamadas que ofrecen servicios (en lugar de ir al banco y hablar con un cajero cara a cara, por ejemplo).

A medida que mejoran las herramientas para crear falsificaciones, aumentan las posibilidades de que los delincuentes utilicen tecnología de voz basada en IA para imitar nuestras voces y usarlas contra nosotros.

Estas nuevas técnicas también pueden afectar en el mundo de las criptomonedas, dado que existen plataformas que su servicio al cliente es mediante llamadas, por lo cual, si logran falsificar la voz de estas personas, incluso del dueño del proyecto, pueden vulnerar los activos de los usuarios.

Deja un comentario

Loading data ...
Comparison
View chart compare
View table compare