Si la pregunta es "cómo vamos a reconocer las imágenes generadas por IA", OpenAI ya tiene lista su marca de agua

  • Ya han comenzado a integrarlo en las imágenes generadas a través de DALL-E 3

  • El mecanismo no es perfecto: es fácil eliminar los metadatos de una imagen

Cr 2
6 comentarios Facebook Twitter Flipboard E-mail

El reciente escándalo de las imágenes pornográficas de Taylor Swift generadas con modelos de IA generativa ha vuelto a poner de relieve la necesidad de etiquetar esas imágenes de alguna forma para poder saber que no son reales. Hay varios esfuerzos en el mercado, pero ahora tenemos un paso adelante llamativo.

OpenAI. La empresa ha anunciado que ha comenzado a crear marcas de agua en las imágenes generadas con su plataforma DALL-E 3. De hecho, esas marcas estarán integradas en las imágenes que se generen a través del sitio web de ChatGPT y a través de la API del modelo de  DALL-E 3. Los usuarios de la app móvil contarán con dicha opción a partir del 12 de febrero.

Dall1

Las verás y no las verás. Las marcas de agua incluidas en las imágenes generadas con DALL-E 3 tendrán dos componentes. Uno visible, con un símbolo CR visible (de "content CRedentials") que aparecerá en la esquina superior izquierda de la imagen, y también un componente invisible como parte de los metadatos de la imagen.

Verificación sencilla. Cualquier usuario podrá gracias a este esfuerzo consultar el origen de las imágenes generadas con las plataformas de OpenAI. Para lograrlo bastará usar sitios web como Content Credentials Verify, aunque por el momento solo se puede añadir y comprobar esa marca de agua en imágenes. Los vídeos y el texto de momento no cuentan con un mecanismo de este tipo.

Cont El símbolo CR será la señal de que podremos conocer la procedencia de esa imagen generada con modelos de IA.

Una marca "light". En OpenAI explican que estos metadatos apenas tienen impacto en la latencia, lo que evitará que usar esta tecnología ralentice o empeore la calidad de esas imágenes, que no se verá tampoco modificada. En algunas tareas el tamaño de las imágenes será ligeramente mayor, simplemente.

CP2A al rescate. El sistema utilizado tiene su origen en el consorcio C2PA en el que están empresas como Adobe y Microsoft y que desde hace tiempo promueve este mecanismo para identificar imágenes generadas por IA. Adobe ya creó ese nuevo icono "cr" en las imágenes y OpenAI es la primera de las empresas de referencia en este campo en usarlo. Meta, por ejemplo, está comenzando también a etiquetar las imágenes generadas por IA en sus plataformas.

No es un mecanismo perfecto. Aunque la idea es interesante, los propios responsables de OpenIA indican que los metadatos "se pueden borrar fácilmente tanto sin querer como intencionadamenete". Muchas plataformas en redes sociales eliminan los metadatos de los contenidos que se suman, y sacar una captura de cualquier imagen en redes sociales también los elimina. Aún así, es un buen principio para resolver uno de los grandes problemas de la industria, sobre todo a la hora de limitar el alcance de los deepfakes.

En Xataka | Tenemos un gigantesco problema con las imágenes generadas por IA. Google cree tener la solución

Inicio