El ser humano tiene, hoy en día, la opción de "vivir en realidades sintéticas", en palabras de Justin Hendrix, director del NYC Media Lab: las redes sociales ya establecidas actúan como burbujas ideológicas que sesgan y radicalizan sus puntos de vista, las nuevas redes sociales nos presentan el mundo a través de filtros y las que serán las redes sociales del futuro ya son, en sí mismas, mundos virtuales.
A lograr esto han contribuido, curiosamente, algoritmos de inteligencia artificial que son capaces de aprender del mundo real, extrayendo patrones de los objetos y seres que lo habitan. Se podría decir que la inteligencia artificial es un motor que funciona alimentándola con cantidades ingentes de un combustible llamado 'datos', datos que los humanos extraemos del mundo real.
Así, alimentando a una red neuronal con miles o millones de fotografías de gatos -por ejemplo- podemos lograr que, en adelante, sea capaz de reconocer a otros gatos en otras fotografías que no conozca previamente, gracias a que detecta los patrones que todas ellas tienen en común.
Los fabricantes de vehículos autónomos están invirtiendo grandes cantidades en lograr que éstos sean capaces de detectar peatones que pasean, que corren, que están parados en los semáforos o cruzando imprudentemente la carretera. No faltan, precisamente, fotos con miles de ejemplos de cada uno de esos casos (ya sea usando viandantes anónimos o actores).
Pero recopilar y etiquetar (a mano) todos esos ejemplos no es barato ni sencillo ni se puede hacer en poco tiempo. Y eso por no mencionar la multitud de situaciones que una IA debería poder identificar pero para las que apenas podemos proporcionarle ejemplos reales (grandes accidentes automovilísticos, por ejemplo).
También hay casos en los que el coche se cruza con algo que ya conoce, pero en una situación inédita, y no es capaz de reconocerlo... con consecuencias dramáticas (¿cómo hacer que reconozca como personas a un montón de niños hábilmente disfrazados para Halloween o Carnaval?).
Aprendiendo con 'libros de texto' simulados
Ya sea por coste o por imposibilidad para obtener datos reales, las empresas de inteligencia artificial han empezado a optar por 'engañar' a sus IAs proporcionándoles fotos y vídeos falsos, a veces manipulados a la vieja usanza, en otros casos producto del uso de GANs o redes generativas antagónicas (deepfakes, en resumen). "Si esta realidad no basta para entrenar a la inteligencia artificial", piensan, "la crearemos nosotros".
De modo que muchas IAs ya viven, como muchos humanos en "realidades sintéticas", en las que supuestamente aprenden todo lo que luego tendrán que usar para relacionarse con el mundo real. Startups como Landing.ai , AI.Reverie o ANYVERSE ya generan millones de escenas que un coche real podría no experimentar, ni siquiera tras un millón de horas recorriendo calles y carreteras.
La generación de datos falsos-pero-realistas puede darse también con otro objetivo: el de anonimizar datos delicados, como los historiales médicos que las IAs del sector sanitario necesita para afinar su capacidad de diagnóstico.
Aprendiendo en 'aulas' simuladas
Compañías como Waymo, por otro lado, utilizan estos mundos virtuales no para generar datos de entrenamiento para las IAs, sino para construir simulaciones que ponen a prueba su entrenamiento, haciendo que el software de un coche autónomo crea estar en un carretera real y obligándole a interactuar con falsos vehículos y peatones. Y, al no sufrir las limitaciones del mundo físico, pueden recorrer millones de kilómetros, una y otra vez, en pocas horas, aprendiendo de sus errores.
Otras, como Nvidia, utilizan un sistema similar para entrenar a robots y que aprendan por sí mismos la mejor forma de coger y transportar un objeto en base a unos determinados datos de peso y forma.
Vía | Axios
Imagen | 'Matrix' (Warner Bros, 1999)
Ver 9 comentarios