En la primera mitad de 2023, Clive Kabatznik habló con su representante bancario para programar una gran transferencia de dinero que tenía contemplada. Después volvió a marcar, pero no se trataba de él, sino de un deepfake (también conocido como deepvoice) que buscaba engañar a la empleada de un banco para que enviara su dinero a otro lugar.
Tanto el cliente como su banquera fueron el objetivo de una estafa utilizando inteligencia artificial para generar una versión ultrafalsa (deepfake) de voz de Kabatznik, a partir de un programa que puede imitar la voz de personas reales, según detalla el New York Times en un reportaje.
De acuerdo con el medio, en el caso de Kabatznik el intento de fraude se pudo detectar, aunque la velocidad en el desarrollo tecnológico, los costos cada vez más accesibles de programas de IA generativa y el gran catálogo de voces de personas en internet ha permitido convertir este método en el caldo de cultivo perfecto para realizar estafas con IAs de voz.
Obteniendo la voz de las víctimas y realizando la estafa
The New York Times detalla cómo primero se suelen obtener los datos de los clientes a partir de cuentas bancarias robadas por piratas informáticos, y después se obtiene la voz de la víctima. Esto es "especialmente sencillo" con personajes famosos, pues en muchas ocasiones hay material como apariciones públicas o lecturas de discursos alojados en plataformas como TikTok o Instagram.
Según Vijay Balasubramaniyan, consejero delegado y fundador de Pindrop, una empresa encargada de supervisar el tráfico de audio para muchos bancos importantes de Estados Unidos, los centros de atención telefónica reciben entre 1,000 y 10,000 llamadas telefónicas de estafadores cada año, y actualmente "un puñado" estas son de voces falsas generadas por programas informáticos, mismas que comenzaron a registrarse desde 2022.
Pindrop aclara que la gran mayoría de los ataques van dirigidos a los centros de atención telefónica de tarjetas de crédito, donde hay representantes humanos, quienes se encargan de ayudar a los clientes que necesitan apoyo con sus tarjetas.
Según Balasubramaniyan, en algunos casos las llamadas son fácilmente identificables, pues suenan "robóticas", además de otros factores que las delatan, como el sonido de alguien tecleando las respuestas, por lo que son rápidamente marcadas como fraudulentas.
Cada vez es "más fácil" replicar la voz de una persona
En el reportaje también se aclara que, a pesar de las medidas de seguridad, al ser una carrera entre "atacantes y defensores", cada vez es más fácil que un estafador hable a un micrófono o teclee un mensaje para convertirlo en la voz del objetivo.
Para esto han proliferado herramientas que hacen más sencillo el proceso. Tal es el caso de servicios como VALL-E de Microsoft, que pueden generar una voz similar a la de un usuario utilizando una muestra de audio de apenas tres segundos.
A pesar de estar registrados otros casos, como el de un banco de Emiratos Árabes Unidos, que en 2021 fue víctima de un ataque con deepfake, Brett Beranek, director general de seguridad y biometría en Nuance, detalla que a la fecha los ataques reales son pocos frecuentes, y se presentan de forma habitual en conferencias de seguridad como ejemplos.
Para Beranek, los ataques a los centros de atención telefónica o a sistemas automatizados no son los más preocupantes, a diferencia de los que van dirigidos directamente a individuos, como sucedió en el caso de Kabatznik, en los que se intenta convencer a una persona para realizar los movimientos.
En el caso específico de Kabatznik, tras un par de llamadas adicionales por parte de los atacantes, y luego de informar al equipo de seguridad del banco, se dejó de responder a sus llamadas y correos electrónicos, aunque estos vinieran del verdadero Kabatznik. Al final el contacto con el cliente se reanudó 10 días después, hasta que se logró que este visitara las oficinas del banco.
Para The New York Times más allá de las novedades en los ataques con IA, el problema base es mucho más viejo: la filtración de bases de datos, que se recopilan y analizan para dar con personas reales que pueden ser estafadas.
El reportaje completo de The New York Times se titula: 'Los ‘deepfakes’ de voz van a por tus ahorros'.
Creditos: XATAKA
Comments