En una videollamada le ordenaron a un empleado que transfiriese 25 millones de dólares. Todos eran deepfakes menos él

  • Los estafores recrearon el aspecto y voz del CFO y otros directivos para engañar al empleado

  • Las estafas con voces clonadas por IA son inquietantes, pero este con las videollamadas el engaño es aún más peligroso

Video1
15 comentarios Facebook Twitter Flipboard E-mail

Al empleado de una multinacional de Hong Kong aquello le sonó un poco raro. El Chief Financial Officer de la empresa le dijo en un correo electronico que debía realizar una transferencia de dinero, y que le llamaría por videoconferencia.

Así lo hizo, y a lo largo durante una semana el empleado mantuvo varias videoconferencias con el CFO y otros directivos de la empresa. Le ordenaron realizar varias transferencias por un valor total de 200 millones de dólares de Honk Kong, unos 25,6 millones de dólares.

¿El problema? Que el CFO no era el CFO. Era un deepfake. Y el resto de directivos de esas reuniones, lo mismo.

Como señalan en SCMP, para cuando el empleado se dio cuenta del engaño, ya era demasiado tarde, y el dinero había sido transferido. Contactó con la policía, que confirmó que la estafa se había realizado recreando digitalmente a varios directivos de la compañía.

Todos los presentes en las videollamadas  salvo el empleado eran deepfakes. La policía no ha revelado detalles sobre la empresa y los empleados involucrados.

El responsable de la investigación, el superintendente Baron Chan Shun-ching, indicó que mientras que en otros casos las víctimas habían sido engañadas con videollamadas de persona a persona, "esta vez, en una conferencia multipersona, lo que resultó es que todos a los que ves son falsos".

Según las declaraciones recogidas por la policía, los empleados de la llamada parecían y sonaban como la gente real a la que el empleado reconoció. Según Chan, "usaron tecnología de deepfake para imitar la voz de sus objetivos leyendo un guión". Los vídeos de los directivos recreados con esta tecnología se realizaron a partir de vídeos reales que estaban disponibles públicamente.

Durante la videoconferencia los estafadores pidieron al empleado que se presentara, pero luego no interactuaron con él: simplemente le daban órdenes y la reunión terminaba de forma repentina.

A partir de ahí, se mantuvieron en contacto con ese empleado a través de correos, llamadas de persona a persona y mensajería instantánea. Los estafadores intentaron lo mismo con otros dos o tres empleados en total, pero no se sabe más de esos intentos y de momento no ha habido arrestos.

Este tipo de suplantaciones mediante voces clonadas con IA ya son una amenaza inquietante, pero las cosas se complican aún más con estas videollamadas en las que además podemos ver a esa persona y por tanto todo parece aún más real. Aunque hay formas de detectarlos, hacerlo es cada vez más complicado.

En Xataka | Las estafas con voces clonadas con IA son cada vez más frecuentes, pero hay una potencial solución: las "contraseñas familiares"

Comentarios cerrados
Inicio