Contenidos contratados por la marca que se menciona

+info

A las puertas de las emociones artificiales, ¿van a tener los robots sentimientos?

A las puertas de las emociones artificiales, ¿van a tener los robots sentimientos?
1 comentario Facebook Twitter Flipboard E-mail

“Can machines think?” La pregunta es muy actual, aunque se remonte a 1950. Es, de hecho, el comienzo del artículo de Alan Turing, ‘Computing machinery and intelligence’, que trataba el tema científico más novedoso de esos años: la inteligencia artificial (IA). Turing formuló un test que implicaba colocar a un juez frente a un terminal, a través del cual podía comunicarse con dos entidades: un humano y un ordenador. Si el juez no era capaz de identificar cuál era la máquina, entonces el ordenador había superado la prueba y podía calificársele de "inteligente".

La máquina ya podía simular la conversación con seres humanos utilizando simples sustituciones y reglas de búsquedas

La inteligencia artificial como disciplina científica nace gracias a la convergencia de diferentes hallazgos. En los mismos años, la neurología descubrió que la estructura interna del cerebro está compuesta por una red de neuronas que transmiten impulsos electroquímicos. Ada Lovelace, considerada la primera programadora de ordenadores, desarrolló el primer algoritmo. Norbert Wiener abordó las teorías cibernéticas del control y la estabilidad de las redes eléctricas; Alan Turing, la teoría de la computación; y Claude Shannon, la de la información.

Se empezó así a razonar sobre una posible máquina pensante, un autómata capaz de realizar acciones humanas, aprender, hablar e incluso sentir emociones. Entre 1964 y 1966, Joseph Weizenbaum creó ELIZA: una de las aplicaciones pioneras del procesamiento del lenguaje natural. La máquina ya podía simular la conversación con seres humanos utilizando simples sustituciones y reglas de búsquedas por correspondencia (coincidencia de patrones).

En los últimos veinte años se han alcanzado hitos inesperados. Se han desarrollado técnicas avanzadas de aprendizaje automático, minería de datos y sistemas predictivos. La potencia y la capacidad de computación han aumentado, los algoritmos se han vuelto más complejos y sofisticados. Además, todos contribuimos a la mejora de la IA, ya que le permitimos tener acceso a millones de datos a través del uso diario de la tecnología.

 La necesidad de un enfoque multidisciplinario

Gracias a estos avances, la robótica ha experimentado un nuevo Renacimiento. Nacida como una rama de la ingeniería mecatrónica, la robótica es una disciplina en la que la informática y la psicología, la lingüística y la automatización, la mecánica y la biología van de la mano. Si un androide es una máquina que imita al hombre, y para replicar sus movimientos es necesario comprender la mecánica y la dinámica, de la misma manera, no se puede simular una emoción sin tener una conciencia profunda de lo que nos ocurre cuando nos emocionamos.

La necesidad de un enfoque multidisciplinario también es compartida por Gema Fernández-Blanco Martín, profesora de Pensamiento Creativo en el Grado en Ingeniería del Software del centro universitario U-tad: “la investigación debe abarcar distintas disciplinas donde convergen psicólogos, biólogos, filósofos, antropólogos, abogados, sociólogos, lingüistas, ingenieros, etc. No es lo mismo experimentar un sentimiento de angustia, que saber qué es, las consecuencias que tiene, su historia o cómo intervenir. Para mí, el equipo perfecto engloba humanidades, ciencias, tecnologías, oficios, y personas no expertas, es decir, el propio usuario”.

Alumnosok Robots

Robots para todo

Este enfoque también se refleja en la variedad de campos de aplicación, desde los asistentes domésticos a los cobots, robots diseñados para trabajar con los humanos. Por ejemplo, Talos, realizado por la española PAL Robotics. Existen también robots con fines educativos, como Nao, o con tareas de búsqueda y rescate, como Atlas y Walk-man.

Detrás de todos estos robots e IA se esconden millones de líneas de código que convierten la tecnología en casi una magia

Detrás de todos estos robots e IA se esconden millones de líneas de código donde programadores, en colaboración con psicólogos y lingüistas, convierten la tecnología en casi una magia. Es un área con enormes oportunidades laborales en un sector apasionante, donde ingenieros de software y matemáticos destacan por encima de todo.

Entre los robots para el ocio, destaca AIBO, el perro robot fabricado por Sony capaz de reconocer hasta cien comandos de voz gracias a un sistema de aprendizaje que respondía a los estímulos externos y le hacía evolucionar "mentalmente" desde la fase de cachorro. En 2012, Hasbro relanzó Furby, el exitoso robot de peluche creado en 1998, equipándolo con una memoria cuatro veces más amplia y ojos con pequeñas pantallas LCD para mostrar sus emociones. Kobian, por su parte, es el primer robot que imita las expresiones faciales humanas.

La robótica humanoide

De hecho, la robótica humanoide es uno de los campos de investigación más fascinantes, además de un mercado que alcanzará un valor de cuatro mil millones de dólares en 2023. El objetivo es crear robots con características humanas, equipados con inteligencia artificial y capaces de actuar de forma independiente.

En 1970, hizo su debut Wabot-1, un robot antropomórfico diseñado por la Universidad de Waseda en Tokio. Asimo apareció en 2000, de la mano de Honda: sensores y servomotores le brindan la posibilidad de replicar nuestros movimientos y responder a los comandos de voz. Reconoce los rostros y, gracias a las microcámaras en los ojos, puede mapear el entorno registrando la posición de los objetos.

“La inteligencia artificial está de moda y, a veces, se venden como IA cosas que no lo son”, alerta la profesora Fernández-Blanco. Pepper, por ejemplo, es un robot humanoide realizado por Softbank Robotics y capaz de mantener un diálogo con las personas, recordarlas, dar soluciones a los problemas e incluso ser empático al evaluar la expresión facial del interlocutor. Sin embargo, la técnica utilizada es el reconocimiento de patrones. Por tanto, el robot no puede expresar un razonamiento puro, sino responder a preguntas en función de una gran base de datos.

Por otro lado, a finales de 2017, fue presentada la última versión de Sophia, una inteligencia artificial cuyo rostro se inspira a Audrey Hepburn. Producida por la Hanson Robotics de Hong Kong, Sophia puede interactuar con los seres humanos: responde preguntas, recuerda conversaciones anteriores y aprende tanto de ellas como de la infinita base de datos que es Internet, a la que su inteligencia artificial está conectada.

Las redes neuronales artificiales para aprender a pensar

Hoy tenemos robots jugando al fútbol, tocando el piano o cuidando de mascotas. Son eficientes, pero solo pueden realizar correctamente una actividad. Por el contrario, un robot capaz de sentir emociones y, en consecuencia, dotado de "habilidades cognitivas" reales no puede limitarse a un solo ámbito. Debe poder realizar diferentes tareas de forma independiente hasta en entornos desconocidos, tomar decisiones, cooperar e interactuar, incluso emocionalmente, aprendiendo de la propia experiencia en el mundo.

Se investigan los procesos neuronales que subyacen a las emociones fundamentales, como el miedo, la alegría y la tristeza

Al igual que los avances en el campo de la robótica, también la parte cognitiva está inspirada en los seres vivientes a través de la investigación de los procesos neuronales que subyacen a las emociones fundamentales, como el miedo, la alegría y la tristeza. La promesa de las redes neuronales artificiales es precisamente la de recrear estructuras similares a las redes biológicas utilizando principios operativos basados en el aprendizaje y no en la programación estática.

“Las redes neuronales artificiales (RNA) ‘aprenden’ de los datos observados. Aunque la velocidad de procesamiento de una RNA pueda ser mayor que la de una red neuronal natural, esto solo sucede si nos centramos en una única tarea concreta, a nivel general no puede compararse”, avisa Fernández-Blanco.

La nueva frontera es un proceso llamado inferencia de aprendizaje automático. A diferencia del entrenamiento, la inferencia utiliza toda la información introducida por los programadores para producir algo completamente nuevo. Este mecanismo requiere una enorme potencia de cálculo que, según Amazon Web Services, puede representar hasta el 90% de los costes de procesamiento necesarios para cualquier aplicación.

En otras palabras, es necesario mejorar mucho la eficiencia de los procesadores. Además, para realizar un robot que explote plenamente el potencial de las emociones, aún tiene que progresar mucho el desarrollo de tecnologías de hardware que ofrezcan la impresión de que lo que un humano está viendo no es una máquina, sino un ser muy similar a él.

Codigook Robots

La rebelión de las máquinas aún está lejos

"Lo cierto ─anota Gema Fernández-Blanco, psicóloga y doctora en creatividad aplicada que actualmente dirige un proyecto de investigación en robótica social centrado en emociones artificiales─ es que “desconocemos el potencial del cerebro y su funcionamiento, y aún sabemos muy poco como para decir que simulamos. De momento casi todo lo que hacemos son modelados, inspiraciones de lo que sí sabemos. En el caso de la empatía, de momento, todo son simulaciones, o mejor dicho, modelados de una parte de la realidad observable”.

En opinión del colaborador de Google Raymond Kurzweil, para 2040 las máquinas superarán el Test de Turing

No obstante, como demuestran los presentadores virtuales elaborados de la agencia de televisión china Xinhua, la tecnología está reduciendo la barrera que separa la realidad de la ciencia ficción. La época de la singularidad tecnológica, el momento en que las máquinas equipadas con inteligencia artificial alcanzarán un desarrollo suficiente para ser completamente autónomas, ya parece más cerca.

Raymond Kurzweil, colaborador de Google en proyectos de aprendizaje automático, cree que para 2040, gracias a la ley de rendimientos acelerados, las máquinas superarán el Test de Turing. Aun así, Gema Fernández-Blanco se hace varias preguntas: "¿Elige la máquina reproducirse o se ha programado para ello? ¿Puede tomar decisiones independientemente del control humano y ser autónoma? ¿Qué es vivir y morir para una máquina? De momento, todo depende de quién esté detrás”.

Los ingenieros son los que tienen el poder de crear estos nuevos habitantes del planeta. Y va a ser necesaria una formación multidisciplinar y global como la que se imparte en U-tad, tanto en tecnologías de big data y machine learning responsable ─que eviten sesgos en los algoritmos de IA─ como en disciplinas humanísticas tales como pensamiento crítico, que les dote de capacidad análisis más allá de los datos.

Imágenes | iStock/MakaronProduktion, iStock/AndreyPopov

Comentarios cerrados
Inicio