La paradoja de Moravec: por qué la inteligencia artificial hace fácil lo difícil (y viceversa)

La paradoja de Moravec: por qué la inteligencia artificial hace fácil lo difícil (y viceversa)

16 comentarios Facebook Twitter Flipboard E-mail
La paradoja de Moravec: por qué la inteligencia artificial hace fácil lo difícil (y viceversa)

Uno de los pioneros de la inteligencia artificial, el economista Herbert Simon, afirmó en la década de los 50 del siglo pasado que "en un futuro visible, el rango de problemas que podrán manejar las máquinas se igualará con el de la mente humana".

En aquel momento, no parecía una previsión tan ingenua: ya se había logrado hacer que un ordenador jugase a las damas... y aprendiera de sus propios errores. Pero Simon murió en 2001 sin haber presenciado esa tecnología que le había parecido tan cercana. Lo peor es que nosotros tampoco la hemos visto aún.

La Paradoja de Moravec: lo fácil es difícil

Y es que, si bien podríamos pensar que si la IA ya ha sido capaz de superarnos en campos muy complejos (como jugar al Go) o de mostrar habilidades que nosotros jamás hemos tenido (como detectar el sexo de una persona mediante una foto del interior de su ojo), debería resultarle sencillo copiar nuestras habilidades más ordinarias, las pequeñas acciones del día a día que solemos llevar a cabo de manera inconsciente.

Sin embargo, dichas habilidades (atar el lazo de un zapato, movernos con agilidad sobre dos piernas, ser capaces de no chocarnos mientras nos movemos por la calle y vamos pensando en cualquier otra cosa, etc) no son sencillas ni por asomo, sólo nos lo parecen porque son parte intrínseca de lo que somos: como cualquier fisioterapeuta podría recordarnos, la habilidad de caminar no es fácil de enseñar ni siquiera a los humanos.

No, realmente esa y otras habilidades no son sino el complejo resultado de una programación escrita y optimizada por la evolución natural durante millones de años.

Por eso, a una IA le podemos pedir que solucione problemas abstractos, y podrá llevar a cabo la tarea ejecutando un esfuerzo computacional asumible... pero deberemos gastar cantidades ingentes de recursos para llevar a cabo tareas sencillas que cualquier niño de 4 años domina. ¿Cómo es esto posible?

Hans Moravec, un investigador de robótica austriaco, formuló (con la colaboración de otros nombres notables de la disciplina, como Rodney Brooks o Marvin Minsky) esta paradoja que ahora lleva su nombre:

"Es relativamente fácil conseguir que los ordenadores muestren capacidades similares a las de un humano adulto en un test de inteligencia o a la hora de jugar a las damas, y muy difícil lograr que adquieran las habilidades perceptivas y motoras de un bebé de un año".

O, dicho de otro modo: confía en una máquina para jugar al ajedrez... pero cuando termine la partida pídele a un humano que se encargue él de guardar las piezas en su caja y guardarlas.

El argumento de Moravec a la hora de formular su Paradoja es sencillo: cuando desarrollamos inteligencia artificial, no hacemos sino aplicar ingeniería inversa sobre nuestra propia inteligencia. Y el esfuerzo necesario para copiar cada habilidad humana es proporcional a la antigüedad con que ésta apareció en nuestro árbol genealógico.

En el caso del conocimiento sensorial motor... bueno, nuestros antepasados aún tenían escamas cuando empezaron a desarrollarlo. Pero devolvamos la palabra a Moravec: "Sin embargo, el pensamiento abstracto es un truco nuevo, quizás con menos de 100.000 años de antigüedad. Todavía no lo hemos dominado. No es del todo intrínsecamente difícil; sólo parece así cuando lo realizamos".

O, tal y como resume el psicólogo Steven Pinker, "la principal lección de treinta y cinco años de investigación en Inteligencia Artificial es que los problemas difíciles son fáciles y los problemas fáciles son difíciles".

Si lo pensamos un momento, es fascinante pensar que la capacidad de razonar, la que entendemos que nos separa radicalmente del resto del Reino Animal, no sólo es lo más 'fácil' de reproducir artificialmente, sino que resultar ser tan sólo "un truco nuevo que aún no tenemos dominado".

El 'test de Kamprad'

Hace ahora un año, un grupo de investigadores de la Universidad Tecnológica de Nanyang (Singapur), anunciaron que habían conseguido que un par de robots industriales montaran "la mayor parte" de un mueble de IKEA (una silla STEFAN, para más señas). Llamaron a esta prueba 'el Test de Kamprad' (en honor a Ingvar Kamprad, el fundador de IKEA que acababa de fallecer unos meses antes).

El resultado fue desalentador: las máquinas se pasaron 11 largos minutos escaneando su entorno y planificando sus movimientos... pese a que se les había echado una mano proporcionándoles instrucciones precisas pensando en la tarea que iban a realizar, y agrupando parte de las piezas para facilitar su manipulación.

Luego, necesitaron otros 9 minutos para completar la misión encomendada, durante la cual cometieron varios errores como dejar caer pasadores, desalinear piezas, etc. Pese a eso, los investigadores recibieron los resultados como una buena noticia: conocían la complejidad real de la tarea que habían encomendado a las máquinas...

... y también que los actuales sistemas de IA son, fundamentalmente, motores de reconocimiento de patrones, a los que logramos entrenar proporcionándoles miles o millones de ejemplos con la esperanza de que, a partir de los mismos, logren inferir reglas que puedan aplicarse de forma generalizada en el mundo real. Pero eso no significa que comprendan dicho mundo.

Tu retina es más potente que esa CPU

Moravec explicaba en su artículo "Robots, la re-evolución de la mente" (2000) que los robots industriales con capacidad de movimiento que se fabricaban a finales de los 80 fracasaron comercialmente porque

"estaban guiados por marcadores de navegación diseñados ex-profeso (como códigos de barras detectados por láser), y por características preexistentes (como paredes, esquinas y puertas). El trabajo del casco de colocación de los cables guía se reemplaza mediante la programación cuidadosamente sintonizada para cada segmento de ruta".

Por supuesto, la situación desde los 80 ha cambiado mucho: ahora contamos con cámaras potentes que permiten dotar de visión artificial a cualquier robot (o vehículo), y el propio Moravec señala que este es el camino a seguir.

Sin embargo, también nos recuerda que conocemos la retina de los vertebrados lo bastante bien como para usarla de "Piedra Rosetta" capaz de establecer una medida de comparación entre tejido nervioso y capacidad de cálculo:

"Además de los detectores de luz, la retina contiene circuitos de detección de bordes y movimiento, agrupados en una pequeña área de dos centímetros de ancho y diez centímetros de ancho que informa simultáneamente sobre un millón de regiones de imágenes unas diez veces por segundo a través del nervio óptico".

"En la visión robótica, detecciones similares requieren la ejecución de varios cientos de instrucciones de computadora, lo que provoca que los 10 millones de detecciones por segundo de la retina supongan más de 1.000 MIPS [millón de instrucciones por segundo]".

"En 1999, los PCs se equipararon al sistema nervioso de los insectos, pero no alcanzaron el nivel de la retina humana, ni el del cerebro de un pez dorado (de 0,1 gramos). Y eran un millón de veces demasiado débiles para hacer el trabajo de un cerebro humano".

Moravec acompañaba su artículo con este ilustrativo gráfico, que equipara la evolución tecnológica (hasta el año 2030) con sus equivalentes biológicos en términos de capacidad de procesamiento:

Robots, Re-Evolving Mind

Pero, cuidado, a veces lo difícil es... difícil

Ningún investigador o teórico relevante del ámbito de la inteligencia artificial discrepa del punto de vista de Moravec: la paradoja que señala es obvia, y la explicación elaborada por éste, recurriendo a la explicación evolucionista, cuenta con un amplio respaldo.

Pero... ¿es cierto que las tareas a aprender se dividen únicamente en las evolutivamente recientes (fáciles de replicar y no innatas) y aquellas desarrolladas hace millones de años (innatas y difíciles de replicar)?

Quizá eso es cierto cuando contraponemos únicamente psicomotricidad y cálculo, pero... ¿dónde queda la creatividad en esa división?

Esa es la duda del psicofisiólogo israelí Vadim Rotemberg, quien ha elaborado una de las pocas críticas a la Paradoja de Moravec que podemos encontrar en el ámbito académico (o, más bien, a la explicación evolucionista de la misma elaborada por su autor, que Rotemberg considera que adolece de "restricciones y puntos débiles").

La clave de su crítica reside que, si bien la creatividad es una de las últimas habilidades que aparecieron en la evolución biológica (y el área del cerebro responsable de la misma ha sido la última en madurar), "es muy difícil -y, hasta ahora incluso imposible- encontrar un algoritmo capaz de procesar e informatizar la creatividad".

"Supongo que la explicación de estas contradicciones, así como la de la paradoja de Moravec, está relacionada con las diferentes funciones [y diferentes estrategias de pensamiento] de los hemisferios izquierdo y derecho de los humanos".

Así, mientras que el pensamiento lógico formal del hemisferio izquierdo organiza la información en "un contexto monosemántico estrictamente ordenado y sin ambigüedades [...] Tal estrategia de pensamiento hace posible construir un modelo de realidad pragmáticamente conveniente pero simplificado".

En contraste, la función del hemisferio derecho es la de "capturar simultáneamente un número infinito de conexiones reales y dar forma a un contexto polisemántico integral pero ambiguo". Este hemisferio desempeña un papel clave en la creatividad... pero también "está especialmente relacionado con el sistema límbico, que controla las funciones corporales".

"Así, el hemisferio derecho muestra, por un lado, un sistema que determina una integración natural del sujeto en el mundo polidimensional y, por otro lado, es responsable de la creatividad que también requiere una visión integradora del mundo".

Rotemberg señala que nuestra facilidad para informatizar las tareas del hemisferio izquierdo deriva de la naturaleza "en cierta forma artificial" de éstas, pues "para construir un contexto monosemántico es necesario desintegrar lo holístico, seleccionar partes del mismo y elegir relaciones bien definidas entre éstas".

Sin embargo, "el mundo real, con todas sus interrelaciones polidimensionales" (es decir, lo que analizamos usando el hemisferio derecho), no sería igual de 'digerible' por mecanismos artificiales. Para Rosemberg, por tanto, el problema no sería cuantitativo (capacidad de cálculo) sino cualitativo (la incompatibilidad de las 'mentes artificiales' con determinadas capacidades humanas).

Sin embargo esta crítica, publicada ya en 2013, no parece haber tenido eco en el campo de la investigación de la inteligencia artificial (quizá porque, sólo un año después, Christian Jarrett publicaba 'Grandes mitos del cerebro' criticando la radical separación funcional entre hemisferios cerebrales).

Comentarios cerrados
Inicio