Crecen los ataques con deepfakes de audio: la suplantación de CEOs con este sistema hizo perder millones a tres grandes compañías

Crecen los ataques con deepfakes de audio: la suplantación de CEOs con este sistema hizo perder millones a tres grandes compañías
10 comentarios Facebook Twitter Flipboard E-mail

Imaginemos una situación ficticia: el gestor financiero de una gran compañía recibe una llamada de su CEO, para ordenar una transferencia urgente para alguna clase de adquisición. No se oye del todo bien, porque dice estar conduciendo, pero la transferencia finalmente se lleva a cabo. Sólo que... quien estaba al otro lado de la línea no era el CEO de la compañía, y el dinero ha terminado en la cuenta de un delincuente. ¿Qué ha pasado?

La compañía de ciberseguridad Symantec afirma que le consta que esta situación no sólo no es ficticia, sino que se habría dado ya en 3 ocasiones en los últimes meses, afectando a tres grandes compañías (cuyo nombre no se ha revelado).

La clave del engaño (en los tres casos, el 'modus operandi' utilizado fue el mismo) reside en el uso de deepfakes de audio: el resultado de utilizar una inteligencia artificial para clonar de forma realista la voz de una persona, tras haberla entrenado a partir de muestras de la voz del personaje a imitar, extraídas de grabaciones previas (en entrevistas, anuncios o conferencias... pero Youtube está llena de ellas).

Las pocas deficiencias que presente el audio resultante siempre podrá ser disimuladas mediante excusas realistas, como la usada en este caso: estar conduciendo.

Pocos (y caros) medios de defensa ante ataques cada vez más realistas y frecuentes

Según revela Axios, durante el último año ha habido un repunte en los ataques basados en deepfakes de audio sofisticados, según denuncia Vijay Balasubramaniyan, CEO de Pindrop, una empresa que protege de estafadores a los call centers monitorizando rastros de alteración en las voces de los interlocutores.

Tales ataques no serían un problema si existiera una buena defensa pero, según los expertos, no es ése el caso: según Henry Ajder de Deeptrace, una startup dedicada a la detección de deepfakes,

"no creo que la infraestructura corporativa esté preparada para un mundo donde ya no se puede confiar en la voz o vídeo de un compañero de trabajo".

Y lo peor es que las defensas necesarias no están al alcance de la mayoría de las empresas que podrían sufrir estos ataques. New Knowledge, otra de las nuevas compañías dedicadas a defender a clientes corporativos de las amenazas de la desinformación, afirma que sus servicios pueden llegar a costar de 50.000 dólares a "un par de millones" al año.

Cuando los deepfakes empezaron a protagonizar titulares, hace ya casi un año, contábamos en Xataka que "con los deepfakes tendremos un problema con la verdad: ni los vídeos servirán como pruebas". Ahora, ni siquiera las llamadas de teléfono. Y a medida que los deepfakes se vuelvan más sofisticados, se irá ampliando la lista de nuevos tipos de fraude posibles.

Pensemos, por ejemplo, en el efecto que tendría sobre las acciones de una compañía la 'filtración' de un audio supuestamente protagonizado por Tim Cook, en el que se revelase un defecto en un lanzamiento estrella de Apple día antes de su lanzamiento. O de una conversación de un falso Mark Zuckerberg hablando sobre usos ilegales de los datos de los usuarios de Facebook.

Pero, aunque la tecnología para realizar estos ataques es cada vez más accesible, lo cierto es que tampoco salen gratis. Alexander Adam, un científico de datos citado por la BBC, afirmaba que entrenar los modelos necesarios para producir falsificaciones lo bastante buenas como para llevar a cabo los ataques detectados por Symantec requieren una inversión notable de tiempo y dinero ("miles de libras").

Por fortuna, el oído humano es sensible a una amplia gama de frecuencias, por lo que obtener audios realistas requiere una gran potencia de computación y varias horas de audio de buena calidad como materia prima.

Vía | Axios & BBC

Imagen | Pxhere.com

Comentarios cerrados
Inicio