La Inteligencia Artificial de Google ya no nos necesita para crear su propio cifrado

La Inteligencia Artificial de Google ya no nos necesita para crear su propio cifrado
34 comentarios Facebook Twitter Flipboard E-mail

El Deep Learning representa un acercamiento íntimo al modo de funcionamiento del sistema nervioso humano, y lo aplica a los sistemas de Inteligencia Artificial para que sean capaces de aprender a hacer cosas por sí mismos. Esta se está convirtiendo en una tecnología clave para procesar las ingentes cantidades de datos servidas por el Big Data, pero su evolución está empezando a alcanzar cuotas sorprendente, e incluso un poco inquietantes.

Un equipo de Google Brain, el proyecto de deep learning de la empresa del buscador, ha sido capaz de enseñarle a sus máquinas a crear su propio cifrado sin necesidad de intervención humana. Vamos, que están aprendiendo a guardar secretos bajo un cifrado que no necesariamente tenemos por qué entender... o saber descifrar.

El avance ha sido publicado en un artículo científico por los investigadores Martín Abadi y David Andersen. En él han explicado qué método han seguido para que sus redes neuronales hayan sido capaces de encontrar la manera de utilizar técnicas simples de cifrado sin que se les hayan enseñado algoritmos criptográficos específicos.

¿Cómo lo han conseguido?

Para conseguir que las inteligencias artificiales hayan sido capaces de lograr esto, el equipo de Google Brain ha realizado varias veces un experimento utilizando tres redes neuronales. Las han llamado Alice, Bob y Eve, y a cada una de ellas se le ha asignado un rol específico para simular una conversación a través de la red.

Alice era la encargada de enviarle mensajes a Bob, mientras que Eve intentaba espiarles y averiguar qué se decían entre ellos. Estos mensajes partían de un texto plano, y la misión de Alice era la de cifrarlos para que agentes externos como Eve no fueran capaces de saber lo que decían aun teniendo acceso a ellos.

Todo esto lo tenía que hacer de manera que Bob pudiera reconstruir el mensaje que le llegaba. Para que pudieran hacerlo, a Alice y Bob se les asignó una serie de números predefinidos para que los utilizasen a la hora de cifrar y descifrar sus mensajes. Eve no tenía estos números, por lo que los dos primeros tenían que aprender a combinarlos con el mensaje original para que no pudiera entenderlo.

Grafico
Evolución de los errores de reconstrucción de Bob y Eve durante el entrenamiento

En los primeros intentos en los que se realizó la prueba, el cifrado de los mensajes de Alice era bastante pobre, y Eve no tenía problemas en resolverlo. Pero después de varios intentos, Alice desarrolló su propia técnica autónoma para cifrar los datos, y Bob consiguió desarrollar otra para descifrar lo que le decía.

A partir de las 15.000 repeticiones de esta experiencia, Alice fue capaz de enviarle a Bob mensajes que pudiera reconstruir sin que Eve adivinase más de 8 de los 16 bits que contenían. Esa tasa de éxito, teniendo en cuenta que cada bit era un 1 o un 0, es similar a la que se puede obtener por pura casualidad.

No sabemos cómo han desarrollado ese método

Machine Learning

La magia (o lo inquietante) de este avance en las redes neuronales es que los investigadores no saben exactamente cómo funciona el método de cifrado de Alice. Además, aunque con Bob han podido ver cómo pueden solucionarlo, no lo han podido hacer de manera que sea fácil de entender cómo lo consigue.

Y esto es una mala noticia, porque quiere decir que no siempre seríamos capaces de entender cómo funcionan los cifrados creados por estas máquinas, lo que es un peligro a la hora de garantizar la seguridad de los mensajes. Esto, de momento, hace que esta técnica de creación de cifrados tenga muy pocas aplicaciones prácticas de cara al futuro.

Aún así, los científicos de Google se muestran entusiasmados con los resultados, y ya hablan en su artículo de intentar diferentes configuraciones de red y distintos procedimientos de entrenamiento para entender mejor el proceso.

Los más catastrofistas podrían decir que es peligroso enseñarle a las máquinas a guardar secretos. Personalidades como Bill Gates, Mark Zuckerberg, Stephen Hawking o Elon Musk llevan tiempo posicionándose a favor y en contra de desarrollar inteligencias artificiales debatiendo sobre los posibles peligros que pueda suponer. Pero tranquilos, porque Google por si acaso está creando un mecanismo que nos asegure que podremos desactivarlas en el caso de que algo salga mal.

Vía | New Scientist

Comentarios cerrados
Inicio