Tenemos un gigantesco problema con las imágenes generadas por IA. Google cree tener la solución

Buscar una imagen en Google es muy sencillo. Otra cosa muy distinta es saber si podemos trabajar con ella, si está manipulada o cuál es su procedencia. En la inmensa mayoría de los casos esa información no suele estar disponible, pero es que además la llegada de las IAs generativas plantea un caos aún mayor en el que la desinformación y las imágenes falsas serán más difíciles de detectar que nunca. Google quiere tratar de evitarlo.

Demasiada desinformación. Según un estudio de 2022 de Poynter, el 62% de los usuarios de internet detectan información falsa cada día o cada semana. Google lleva años trabajando en minimizar el problema en la web, pero ahora tratará de hacer eso mismo en el caso de las imágenes.

"Acerca de esta imagen". Google anunciaba durante el Google I/O 2023 el lanzamiento de la característica "About this image". La opción estará disponible primero en EEUU en inglés, y hará que para cada imagen podamos obtener cierto contexto para cada imagen de forma que podamos valorar mejor su credibilidad y relevancia.

La que se nos viene encima. Como mencionábamos, esta nueva era en la que nos estamos viendo inundados por imágenes generadas por inteligencia artificial plantea un problema importante, sobre todo teniendo en cuenta que esas imágenes son prácticamente indistinguibles de imágenes reales. Cada vez será más difícil detectar qué es real y qué no, y en Google hablaron durante esa charla inaugural de su filosofía de "IA Responsable" con la que tratarán de avanzar en este campo, pero tratando de evitar los problemas que vienen asociados a este tipo de herramientas. Y entre ellos, insistimos, está el de identificar lo que ha sido creado por una IA como tal.

Un registro para cada imagen. A través de la herramienta podremos saber 1) cuándo se indexó esa imagen (e imágenes similares) en Google, 2) cuándo podría haber aparecido por primera vez y 3) dónde más se ha publicado online (medios, redes sociales, etc). Con dicha información será posible determinar con mayor precisión si esa imagen representa lo que dice representar y es original o no.

Ejemplo de cómo aparece identificada una imagen generada por Midjourney.

Etiquetas para imágenes generadas por IA. Otra de las claves de este proyecto es el de la decisión de Google de etiquetar todas las imágenes que se generen con sus sistemas de IA generativa. La propuesta de Google es que creadores y editores también etiqueten las imágenes de forma que cuando estén generadas por IA sea posible "marcarlas" como tales para poder luego detectar que efectivamente fueron creadas con esas plataformas. En Google afirman que Midjourney o Shutterstock lo harán en los próximos meses.

Una idea que se extiende. La propuesta de Google no es nueva, y de hecho Adobe habló precisamente de la Content Authenticity Initiative (CAI) de la que forma parte. Este organismo plantea el uso de marcas de agua en las imágenes, y algo similar plantea el JPEG-FM para luchar contra los deepfakes. Thierry Breton, comisario europeo de Mercado Interior, ya habló de la importancia de establecer una regulación que pusiera límites a la IA.

Todo un reto. Es sin duda posible solución que quizás no erradique el problema pero que desde luego podría minimizarlo. El reto aquí es que estos sistemas de etiquetado sean interoperables o que haya algún tipo de estándar para unificar criterios y evitar que el propio proceso de etiquetado y verificación acabe siendo un caos.

En Xataka | Ya hay una web que promete distinguir las imágenes reales de las generadas por IA. Obviamente, tiene truco

Ver todos los comentarios en https://www.xataka.com

VER 15 Comentarios

Portada de Xataka