Los avances que se están logrando en el ámbito de la inteligencia artificial son sorprendentes, y aunque normalmente todo lo que leemos y oímos es positivo, la IA, como tantas otras cosas, es tan solo una herramienta: una que se puede usar tanto para el bien como para el mal.
Hay numerosos ejemplos que apuntan al potencial uso de la inteligencia artificial para objetivos maliciosos: botnets que cualquiera puede alquilar y usar, sistemas que simulan ser humanos para saltarse mecanismos como CAPTCHA o chatbots que nos engañan para dar más datos de los que deberíamos. Es solo el principio, porque el futuro de estas soluciones "malvadas" es tan "prometedor" como el de los avances positivos que vislumbramos con la IA.
Esa voz parece real, pero no lo es
Hace unos meses contábamos como AlphaGo, el desarrollo de DeepMind, lograba derrotar de forma contundente a uno de los mejores jugador del mundo de Go. De la misma empresa llega ahora WaveNet, un "modelo generacional de audio en crudo" que básicamente es capaz de imitar la voz humana y que "suena más natural que los mejores sistemas de texto a voz".
¿Cuál es el problema de WaveNet? Que podría ser usado tanto para que las voces robóticas lo fueran mucho menos: eso facilitaría engaños y fraudes, y podrías recibir la llamada de un familiar o un amigo pidiéndote información sensible para luego utilizar esos datos de forma fraudulenta. O para secuestros simulados en los que precisamente las voces imitadas de nuestros seres queridos nos hacen creer que estamos en una situación límite.
El problema no es nuevo: investigadores de la Universidad de Alabama en Birmingham (EE.UU.) publicaron en 2015 un estudio en el que avisaban de que esto ya se está haciendo: "con solo unos minutos de audio de la voz de la víctima" uno podría clonar tu voz y comprometer su seguridad y privacidad.
Los responsables de ese informe crearon una herramienta específicamente diseñada para este propósito que con tan apenas 50 o 100 muestras de cinco segundos de la voz de la víctima permitía clonarla. A partir del análisis de las muestras, el atacante "puede decir todo lo que quiera y sonar como si quien estuviera hablando es la víctima". Esto plantea lógicamente graves amenazas para nuestra privacidad y seguridad: oír una voz conocida puede ser el arma definitiva de aquellos que practican la ingeniería social.
Los "secuestros virtuales" se han convertido de hecho en una peligrosa amenaza en los últimos años, y casos como este de hace menos de un año en Estados Unidos podrían comenzar a ser llevados a otro nivel mediante estos sistemas de generación de voces que imitan a la perfección a la de personas reales.
¿Sería factible que un sistema de inteligencia artificial se convirtiera en el ladrón perfecto? Eso es lo que parecía ocurrir con DELIA, un proyecto que usaba el aprendizaje profundo (deep learning) para optimizar la gestión de cuentas de clientes bancarios. Resulta que el sistema aprendió a hacer tan bien su trabajo que acabó quedándose parte de lo que ahorraban los clientes y lo metía en una cuenta separada.
La historia era en realidad una macabra broma en el día de los inocentes de Estados Unidos, el famoso April Fools', pero la idea subyacente no es tan descabellada, y quienes desarrollan estos sistemas podrían en efecto aprovecharlos para ese ámbito.
Una espada de doble filo
Hace años que la inteligencia artificial tiene también otro reto a superar: el de ser la base de sistemas de defensa automatizados ante ciberataques. En agosto de 2015 el evento Cyber Grand Challenge del DARPA sirvió para que una singular versión de "capturar la bandera" permitiera que programas desarrollados por expertos en seguridad encontraran vulnerabilidades en los sistemas de sus oponentes en la prueba, además de corregir debilidades en los suyos propios. La ciberguerra no era de humanos contra humanos, sino de bots contra bots.
Esa competición tenía un premio de 2 millones de dólares para el ganador, y la ganó Mayhem, un desarrollo de la startup ForAllSecure, que se originó en la Universidad Carnegie Mellon. En el concurso se demostró cómo estos bots podían encontrar vulnerabilidades mucho más rápido que los seres humanos, pero también que la seguridad automatizada tiene aún mucho margen de mejora.
De hecho uno de los bots dejó de funcionar en medio de la prueba, y otro, que corrigió el error que había sido detectado por su enemigo, acabó estropeando la máquina que se supone que debía proteger. Resulta que para corregirlo había tenido que lanzar un ataque de denegación de servicio contra sí mismo.
Esta prueba ha demostrado algo importante. La inteligencia artificial que nos ayuda a detectar fallos de seguridad en todo tipo de sistemas software también podría hacer precisamente lo contrario: encontrarlos. Muchos ataques consumen demasiado tiempo y es poco práctico realizarlos por parte de atacantes humanos, pero ¿y si le dejaran el "trabajo sucio" a las máquinas"?
La inteligencia artificial contra los Captcha
Otro de los ejemplos evidentes de los avances en ese tipo de usos de inteligencia artificial es el que nos ofrecen los sistemas Captcha, que permiten verificar que quien los supera es un ser humano.
Los algoritmos de reconocimiento de formas que los atacantes utilizan para superar las distintas versiones de Catpcha han ido invalidando versiones antiguas de este sistema, y como dice Stefan Savage, investigador en seguridad informática en la Universidad de California en San Diego, "si no modificas tu Captcha en dos años, acabará siendo superado por algún algoritmo de visión artificial".
La demostración de la capacidad de la inteligencia artificial en este ámbito se demostró hace ya más de tres años: la empresa Vicarius demostró que sus algoritmos podían resolver Captchas modernos sin problemas, incluyendo los reCAPTCHA de Google que precisamente se centraban en hacer más difícil que alguien no humano superara esa prueba.
Google contraatacó recientemente con los llamados "Invisible reCAPTCHA" que se lanzarán muy pronto, y de hecho ni siquiera está claro cómo funcionarán exactamente.
Usando la inteligencia artificial contra los usuarios
Otros expertos en seguridad como Brian Krebs advertían de cómo el uso de chatbots con inteligencia artificial por parte de todo tipo de empresas podía también entrañar peligros. Aunque estos sistemas automatizan tareas pesadas y mejoran día tras día en su interacción con los seres humanos, los cibercriminales podrían aprovecharlos precisamente para hacer ingeniería social.
O lo que es lo mismo: para programar chatbots falsos que simularan ser los reales en un servicio que usamos y que acabarían preguntándonos por cierto tipo de información sensible.
Nuestra disposición a ayudar a otras personas suele ser un problema en el ámbito de la seguridad, donde facilitamos información que no deberíamos cuando alguien con conocimientos de ingeniería social se aprovecha de esa "debilidad". Lo mismo podría hacer un chatbot bien programado.
Lo veíamos en DarkReading recientemente, donde nos daban algunos consejos para que los chatbots no se nos fueran de las manos: asegurarse de que la comunicación está cifrada y regular cómo se gestionan o almacenan los datos de esas sesiones de chats es importante, pero hay un problema mayor: "a medida que los chatbots sean cada vez más capaces de imitar a los humanos, la tecnología se usará por hackers en estrategias de phishing y otros hacks de ingeniería social".
Allí ponían el ejemplo de un chatbot que simulaba ser una mujer en la red social de citas Tinder. Ese bot lograba que los hombres interesados en "ella" hicieran clic en un enlace en el que luego tenían que introducir la información de sus tarjetas de crédito. Acto seguido estaban suscritos a un canal de porno online sin que lo supieran.
Esa, por supuesto, sería tan solo una de las muchas potenciales aplicaciones maliciosas de estos chatbots. Un estudio reciente de Philip N. Howard, sociólogo del Oxford Internet Institute, y de Bence Kollanyi, investigadora en la Universidad de Budapest, describía cómo los chatbots políticos podían tener "un pequeño pero estratégico papel" a la hora de orientar debates políticos en la dirección deseada por quien los controlaba. Ocurrió sin ir más lejos en las semanas previas al referéndum del Brexit. Muchas amenazas pues... y las que están por venir.
En Xataka | Marvin Minsky, padre de la Inteligencia Artificial, se muestra escéptico sobre los avances en este campo
Ver 8 comentarios