Corea del Sur saca la artillería pesada para combatir el porno deepfake, un fenómeno que ha derivado en una espinosa crisis social. Ante el aumento de las denuncias por el uso de la inteligencia artificial para elaborar imágenes y vídeos sexuales falsos, Seúl ha decidido poner en marcha la maquinaria administrativa para endurecer su legislación sobre la materia. Y de forma contundente.
Ya no solo castigará a quienes creen deepfakes sexuales para difundirlos. El proyecto de ley en el que trabajan los políticos surcoreanos contempla cuantiosas multas o incluso penas de varios años de prisión para quienes compren, guarden o simplemente visualicen de forma intencionada este tipo de contenido.
¿Qué ha pasado? Que Corea del Sur quiere endurecer su ley para combatir el porno deepfake. Aunque a día de hoy quienes elaboran contenidos similares para difundirlos se enfrentan ya a penas de cinco años de prisión y multas que llegan a los 50 millones de wones, casi 38.000 dólares, las autoridades surcoreanas quieren ir más allá. ¿Cómo? Castigando también a quienes lo guarden o consuman.
Con ese propósito, se ha elaborado un proyecto de ley que contempla multas y cárcel para aquellas personas que manejen a sabiendas pornografía con imágenes falsas creadas con IA. El miércoles un comité parlamentario dio su visto bueno a revisar la norma y ayer, informa Reuters, los legisladores aprobaron el proyecto.
Tres años entre rejas. Los castigos para quienes de forma consciente e intencionada almacenen o visualicen contenido deepfake sexualmente explícito no serán pequeños. Korea Times precisa que la ley revisada contempla penas de hasta tres años de prisión o multas de 30 millones de wones, equivalente a unos 22.600 dólares. La idea es disuadir a cualquiera que se planteen comprar, almacenar o visualizar material deepfake. O lo que es lo mismo, frenar su proliferación.
En el foco político. Prueba del interés que despierta el tema en el país es que también se ha dado luz verde a otro proyecto normativo que ordena eliminar los deepfake ilegales y garantiza la prestación de apoyo a las víctimas. El miércoles el comité parlamentario aceptó además revisar la ley para castigar de forma aún más severa a quienes usan material sexual para chantajear a niños o adolescentes.
Lo que dicen las cifras. La propuesta es rotunda, pero no sorprendente. A finales de agosto el presidente de Corea del Sur, Yook Suk Yeol, ordenó tomar medidas para atajar el impacto de la pornografía deepfake, material sexual falso que se elabora con ayuda de IA. "Es una explotación de la tecnología apoyándose en la protección del anonimato. Y un claro acto criminal", advertía Yook.
La Agencia Nacional de Policía surcoreana ha divulgado un par de cifras que ayudan a entender hasta qué punto este tipo de contenidos se ha convertido en un problema de primer nivel en el país. En lo que va de 2024 se han presentado 812 denuncias policiales por delitos sexuales relacionados con deepfakes que dieron pie a la detención de 387 sospechosos. Si esos datos no fueran suficientemente alarmantes de por sí, hay dos claves que ayudan a entender su gravedad.
Casi la mitad de esas denuncias, 367, se presentaron a lo largo del último mes, después de que las autoridades lanzasen una campaña especial para perseguir esta clase de delitos. Además el 83,7% de los detenidos eran adolescentes. Es más, 66 de ellos no habían cumplido si quiera los 14 años, por lo que legalmente están exentos de recibir castigos por la vía penal. El 13% eran veinteañeros.
"Una epidemia". Corea del Sur no es el único país que lidia con el enorme desafío de los deepfakes. También se han registrado casos en EEUU o incluso España, donde hace un año se denunció uno especialmente grave en Extremadura, también con menores implicados. En Corea del Sur alcanza sin embargo tal calado que Human Rights Watch ha reconocido públicamente su preocupación.
"Corea del Sur se enfrenta a una epidemia de delitos sexuales digitales en la que cientos de mujeres y niñas son víctimas de imágenes sexuales falsas compartidas en la Red", advierte Heather Barr, directora asociada de la División de Derechos de la Mujer. De "crisis" hablaba también hace poco en The Conversation Sungshin Bae, investigadora y funcionaria de la Fiscalía de Corea del Sur.
"Me quedé petrificada". "La inteligencia artificial está alimentando una crisis de porno deepfake en el país", lamentaba Bae antes de aportar un dato revelador: hace poco Security Heroes analizó casi 96.000 vídeos sexuales elaborados con IA de diferentes fuentes y se encontró con que algo más de la mitad del material, alrededor del 53%, presentaba a cantantes y actrices de Corea del Sur.
El problema afecta también a mujeres que trabajaban fuera de los focos, como Heejin, seudónimo de una universitaria que hace poco relataba a la cadena BBC qué sintió cuándo descubrió que en un chat circulaba una foto porno de ella, una imagen falsa generada con IA a partir de una real de carácter claremante sexual. "No podía dejar de pensar: ¿Esto ha pasado porque subí mis fotos a las redes? ¿Debería ser más cuidadosa? Me quedé petrificada, me sentí muy sola".
The Guardian recuerda que en Telegram ha llegado a localizarse una sala de chat que había atraído a unos 220.000 miembros que se dedicaban a crear y compartir imágenes manipuladas de mujeres, incluidas jóvenes, universitarias, profesoras y militares. Para elaborarlas recurrirían a fotos sacadas de redes como Instagram.
Imágenes | Carles Rabada (Unsplash) y 卡晨 (Unsplash)
Ver 26 comentarios
26 comentarios
luzbel2
Una tonteria, como si fuera algo nuevo editar fotos, la unica diferencia es que ahora se puede hacer por IA. Mientras se haga de forma privada no veo problema.
El anti todo
Prefieren destinar recursos a esa gilipollez en vez de evitar los suicidios, que por algo son el nº1 del mundo.
mszerox
No pues....
NO deben atacar los consumidores, mas bien, podrian ofrecer recompensas por decir quienes son los proveedores, porque de algun lugar vendra.
Y obviamente en vez de carcel, dado que en Corea del Sur se necesita el DNI para tener moviles y el acceso a Internet, que tal si... imitando parcialmente a China, se le niega dichos accesos por un buen tiempo salvo hayan vendido a los proveedores?
sanamarcar
Y carcel tb mentes calenturientas xD.
mlax
No, no es la del Noete, es la del Sur.
dvcharol
Es un daño a la honra y el respeto de las personas generar estas imágenes para compartirlas, perseguir a los que las realizan me parece muy bien, pero perseguir a los que las tengan en su compu o las visualizen en forma privada me parece algo diferente, se puede prohibir que alguien vea algo? me parece que prohibir la pornografia es imposible y prohibir que alguien no vea algo una utopia , no se cual sea la solución, pero no me parece que sea esta.
akatax2
Pajilleros (que se masturban con burradas) vs monjas (podemitas) -> insertar aquí el gif ese de Michael Jackson, porque el debate está servido.
*Ojo, el gif de las palomitas en el cine. Mal ejemplo coño.