Estamos yendo tan lejos y tan rápido con la IA que hasta Google ha diseñado un freno: el desaprendizaje automático

Google Ai 2
3 comentarios Facebook Twitter Flipboard E-mail

Hablar de inteligencia artificial es hablar de términos como 'aprendizaje automático' y 'machine learning'. Con la llegada de ChatGPT, Google respondió con Bard, una inteligencia artificial basada en el modelo de lenguaje experimental LaMDA y con miras a integrarse dentro de la propia búsqueda de Google.

En plena lucha por liderar estos modelos de aprendizaje, la propia Google ha mostrado uno de los potenciales frenos para los mismos: el 'desaprendizaje automático'. Con el objetivo de recordar que todo lo relativo a la IA requiere precaución, ha anunciado una competición en la que se invitará a los desarrolladores a hacer justo lo contrario que llevamos viendo en los últimos meses: hacer que los modelos de IA desaprendan lo que ya conocen.

Curioso es, cuanto menos, que una de las compañías con papel central en el desarrollo de la IA nos haga la siguiente propuesta: desarrollar algoritmos de entrenamiento capaces de eliminar la influencia de los subconjuntos mediante los cuales ha aprendido.

Google explica que el desaprendizaje automático es un término emergente dentro del propio campo del aprendizaje automático. Su objetivo no es hacer que una IA olvide todo lo que sabe, sino eliminar la influencia de ciertos conjuntos de aprendizaje para dar la opción de rectificar en los modelos actuales. Esto, según Google, tendría implicaciones de cara a mejorar la privacidad, mitigar los posibles riesgos de los modelos y aligerar gigantescos conjuntos de datos.

Siendo más concretos, mediante desaprendizaje automático es posible borrar información inexacta o desactualizada de modelos ya entrenados, eliminar datos manipulados o corregir errores inherentes al conjunto de datos del que bebe el modelo.

El reto de Google: desaprender para mejorar

Image2

Google apunta que implementar estrategias de desaprendizaje automático es especialmente complejo: es necesario olvidar los datos del modelo a la par que se ha de mantener la utilidad del mismo. Además, debido a la falta de literatura al respecto, el reto de evaluar la eficacia de estas estrategias no es menor.

Con el fin de impulsar este tipo de estrategia, la compañía anuncia el primer 'Desafío de desaprendizaje de Máquinas', evento que formará parte de las distintas competiciones del evento NeurIPS 2023. Este desafío se realiza a través de Kaggle, subsidiaria de Google compuesta por una amplia comunidad de datos y con foco en el aprendizaje automático. El kit de inicio ya está disponible en GitHub, y la competición tiene un curioso reto.

google

Se parte de un escenario en el que se ha entrenado un modelo capaz de predecir la edad en imágenes con datos faciales. Después del entrenamiento, se debe olvidar un determinado subconjunto de las imágenes para preservar la privacidad de las personas afectadas (en este caso, son modelos sintéticos). No es una tarea fácil: hay límites en los tiempos de ejecución de los algoritmos presentados (deben ser más rápidos de lo que el propio modelo tardaría en aprender tareas). Del mismo modo, se medirá la calidad del olvido y que se respete la utilidad del modelo.

El reto cobra especial interés como antesala a futuros modelos capaces de corregir aprendizajes erróneos o incorrectos en modelos de IA. Somos capaces de enseñar a las máquinas y programas con conjuntos de datos gigantescos: ahora toca aprender a revertir el proceso.

Imagen | Xataka a través de Mindjourney

En Xataka | Un ingeniero estadounidense está ganando 315.000 euros al año gracias a dos cosas: el teletrabajo y ChatGPT

Comentarios cerrados
Inicio