Corea del Sur saca la artillería pesada para combatir el porno deepfake, un fenómeno que ha derivado en una espinosa crisis social. Ante el aumento de las denuncias por el uso de la inteligencia artificial para elaborar imágenes y vídeos sexuales falsos, Seúl ha decidido poner en marcha la maquinaria administrativa para endurecer su legislación sobre la materia. Y de forma contundente.
Ya no solo castigará a quienes creen deepfakes sexuales para difundirlos. El proyecto de ley en el que trabajan los políticos surcoreanos contempla cuantiosas multas o incluso penas de varios años de prisión para quienes compren, guarden o simplemente visualicen de forma intencionada este tipo de contenido.
¿Qué ha pasado? Que Corea del Sur quiere endurecer su ley para combatir el porno deepfake. Aunque a día de hoy quienes elaboran contenidos similares para difundirlos se enfrentan ya a penas de cinco años de prisión y multas que llegan a los 50 millones de wones, casi 38.000 dólares, las autoridades surcoreanas quieren ir más allá. ¿Cómo? Castigando también a quienes lo guarden o consuman.
Con ese propósito, se ha elaborado un proyecto de ley que contempla multas y cárcel para aquellas personas que manejen a sabiendas pornografía con imágenes falsas creadas con IA. El miércoles un comité parlamentario dio su visto bueno a revisar la norma y ayer, informa Reuters, los legisladores aprobaron el proyecto.
Tres años entre rejas. Los castigos para quienes de forma consciente e intencionada almacenen o visualicen contenido deepfake sexualmente explícito no serán pequeños. Korea Times precisa que la ley revisada contempla penas de hasta tres años de prisión o multas de 30 millones de wones, equivalente a unos 22.600 dólares. La idea es disuadir a cualquiera que se planteen comprar, almacenar o visualizar material deepfake. O lo que es lo mismo, frenar su proliferación.
En el foco político. Prueba del interés que despierta el tema en el país es que también se ha dado luz verde a otro proyecto normativo que ordena eliminar los deepfake ilegales y garantiza la prestación de apoyo a las víctimas. El miércoles el comité parlamentario aceptó además revisar la ley para castigar de forma aún más severa a quienes usan material sexual para chantajear a niños o adolescentes.
Lo que dicen las cifras. La propuesta es rotunda, pero no sorprendente. A finales de agosto el presidente de Corea del Sur, Yook Suk Yeol, ordenó tomar medidas para atajar el impacto de la pornografía deepfake, material sexual falso que se elabora con ayuda de IA. "Es una explotación de la tecnología apoyándose en la protección del anonimato. Y un claro acto criminal", advertía Yook.
La Agencia Nacional de Policía surcoreana ha divulgado un par de cifras que ayudan a entender hasta qué punto este tipo de contenidos se ha convertido en un problema de primer nivel en el país. En lo que va de 2024 se han presentado 812 denuncias policiales por delitos sexuales relacionados con deepfakes que dieron pie a la detención de 387 sospechosos. Si esos datos no fueran suficientemente alarmantes de por sí, hay dos claves que ayudan a entender su gravedad.
Casi la mitad de esas denuncias, 367, se presentaron a lo largo del último mes, después de que las autoridades lanzasen una campaña especial para perseguir esta clase de delitos. Además el 83,7% de los detenidos eran adolescentes. Es más, 66 de ellos no habían cumplido si quiera los 14 años, por lo que legalmente están exentos de recibir castigos por la vía penal. El 13% eran veinteañeros.
"Una epidemia". Corea del Sur no es el único país que lidia con el enorme desafío de los deepfakes. También se han registrado casos en EEUU o incluso España, donde hace un año se denunció uno especialmente grave en Extremadura, también con menores implicados. En Corea del Sur alcanza sin embargo tal calado que Human Rights Watch ha reconocido públicamente su preocupación.
"Corea del Sur se enfrenta a una epidemia de delitos sexuales digitales en la que cientos de mujeres y niñas son víctimas de imágenes sexuales falsas compartidas en la Red", advierte Heather Barr, directora asociada de la División de Derechos de la Mujer. De "crisis" hablaba también hace poco en The Conversation Sungshin Bae, investigadora y funcionaria de la Fiscalía de Corea del Sur.
"Me quedé petrificada". "La inteligencia artificial está alimentando una crisis de porno deepfake en el país", lamentaba Bae antes de aportar un dato revelador: hace poco Security Heroes analizó casi 96.000 vídeos sexuales elaborados con IA de diferentes fuentes y se encontró con que algo más de la mitad del material, alrededor del 53%, presentaba a cantantes y actrices de Corea del Sur.
El problema afecta también a mujeres que trabajaban fuera de los focos, como Heejin, seudónimo de una universitaria que hace poco relataba a la cadena BBC qué sintió cuándo descubrió que en un chat circulaba una foto porno de ella, una imagen falsa generada con IA a partir de una real de carácter claremante sexual. "No podía dejar de pensar: ¿Esto ha pasado porque subí mis fotos a las redes? ¿Debería ser más cuidadosa? Me quedé petrificada, me sentí muy sola".
The Guardian recuerda que en Telegram ha llegado a localizarse una sala de chat que había atraído a unos 220.000 miembros que se dedicaban a crear y compartir imágenes manipuladas de mujeres, incluidas jóvenes, universitarias, profesoras y militares. Para elaborarlas recurrirían a fotos sacadas de redes como Instagram.
Imágenes | Carles Rabada (Unsplash) y 卡晨 (Unsplash)
Ver 27 comentarios