Diferenciar al Chicote real del Chicote deepfake generado por IA ya es casi imposible (y es un problema)

Chdest2
14 comentarios Facebook Twitter Flipboard E-mail

No hace mucho, era habitual encontrar en Facebook anuncios que simulaban ser noticias de medios de comunicación como El País o El Mundo en las que hablaban del supuesto método que algunos famosos usaban para enriquecerse. Solían hablar de una inversión concreta en criptomonedas que daba grandes retornos. La idea: usar el gancho de un rostro conocido, como Karlos Arguiñano o Ferran Adrià, para ejecutar el timo de la criptoestampita.

Ahora los delincuentes aparentemente han aprendido a usar herramientas de Inteligencia Artificial (o así lo sugiere la estética de los resultados) y han perfeccionado fotomontajes con más famosos para hacer más verosímil el fraude. Y nuevamente, con logos de los mencionados periódicos para arañar más credibilidad. Alberto Chicote ya ha dado la voz de alerta.

Destino: compra de bitcoins inexistentes

El chef tuvo que salir al paso en su cuenta de Twitter. "El montaje es tan burdo que cuesta creer que se pueda confiar en el mensaje y en quienes lo lanzan. Pero por si acaso, lo dejo claro: todo esto es falso. Se apropian de mi cara para ponerla en un montaje e intentar estafar a los incautos. ¡Mucho ojo con esta gente!", advirtió.

No está solo. La periodista Susanna Griso publicó días antes un comunicado similar. "El montaje es tan burdo que pensé que no hacía falta desmentirlo pero la policía me aconseja que lo haga para evitar posibles estafas. Jamás he invertido en criptomonedas ni tampoco he recomendado su compra".

También aprovechó el espacio del programa que presenta, Espejo Público, para aclarar públicamente que se trata de una estafa. "Hay un montaje que te lleva a una supuesta una entrevista que me hizo Mara Torres, que sí me hizo una entrevista, pero han hecho un montaje y se supone que ahí vendo bitcoins", dijo, según cuenta El Mundo.

"Sé de gente, incluso amigos míos, que le han dado credibilidad. Tengo un mensaje aquí, de una buena amiga que me dice 'Susanna, he entrado y he dejado dinero y la empresa me dice que me lo va a devolver'", añadió.

Ambos están protagonizando sin quererlo los primeros casos en los que imágenes presumiblemente generadas con Inteligencia Artificial, como Midjourney, para confundir a la población con fines maliciosos. En este caso, cazar incautos que traten de invertir en los mismos productos financieros en los que invierten algunas celebridades.

No es una cuestión menor: a una mujer española le estafaron más de 10.000 euros usando a Jesús Quintero como gancho involuntario. Tras ingresar sus datos en las páginas destino de estas estafas, fue llamada por teléfono por un falso broker que le convenció para descargar un programa de control de escritorio remoto. Gracias a ello accedió a su banco y obtuvo un préstamo preconcedido que voló de su cuenta.

Ni los vídeos servirán como pruebas por sí mismos

Hace casi cinco años, en Xataka publicamos un artículo titulado "Con los deepfakes tendremos un problema con la verdad: ni los vídeos servirán como pruebas". La voz de alarma fue dada por un vídeo de Obama articulando un discurso que en realidad jamás pronunció.

Para aquel vídeo, de menos de un minuto, se requirió un trabajo muy cualificado durante muchísimas horas, algo imposible entonces de recrear a gran escala o apuntando a víctimas que no asegurasen un enorme retorno. Era cuestión de tiempo que se fuese haciendo cada vez más simple el proceso hasta que pudiesen surgir con mucha facilidad.

Algo así ya vimos dos años y medio después, con el famoso anuncio del deepfake de Lola Flores que devolvía a la vida a la cantante y le permitía decir algo que en realidad nunca dijo. En ese caso era una campaña comercial que contaba con el consentimiento y la ayuda de su familia, pero el resultado fue tan bueno que nuevamente hacía pensar que cada vez quedaba menos para que fuesen demasiado fáciles de hacer antes de convertirse en problemáticos. Y no para famosos, de quienes es fácil encontrar vídeos que recojan su voz y su aspecto desde varios planos, sino para cualquiera de quien tengamos unas pocas fotos.

El día todavía no ha llegado de forma masiva, pero viendo los avances en Inteligencia Artificial del último año, parece complicado que quede mucho para que crear estos deepfakes sea algo tan simple como lo es hoy usar ChatGPT o crear una imagen con Midjourney.

En ese caso, ni los vídeos, quizás la última frontera de las falsificaciones por su complejidad, podrán servir por sí mismos como garantía final de veracidad. Y ahí estaremos, desconfiando de cualquier viral, cotejando con cuidado cualquier cosa que caiga en nuestras manos... y escuchando cómo celebridades que han sido pilladas recurren a la próxima coletilla de moda: "es un deepfake", que será el nuevo "han hackeado mi cuenta de Twitter". Pero ese será un problema del futuro.

Imagen destacada | Mockuuups Studio.

En Xataka |  ¿Eres capaz de distinguir una imagen real de una generada por IA? Aquí tienes 20 fotos para comprobarlo.

Comentarios cerrados
Inicio