Dotar a las máquinas de voluntad de supervivencia las acercará a la 'IA fuerte' (y nos forzaría a adoptar leyes de la robótica)

Los neurocientíficos Kingson Man y António Damásio explican, en un artículo recientemente publicado en Nature Machine Intelligence, una obviedad: que las inteligencias artificiales carecen de sentimientos y que, en el mejor de los casos, sólo pueden aspirar a simular artificialmente los mismos, pues "no están diseñados para representar el estado interno de sus procesos de tal manera que les permita experimentar dicho estado en un espacio mental". Pero ¿por qué deberíamos dotar de sentimientos a las IAs?

Man y Damásio están convencidos de que hay un modo de dotar de sentimientos a los robots. Al menos de forma indirecta, pues plantean hacerlo a través de la 'implantación' de un único deseo: el de autopreservación; su teoría es que, a partir de ese punto, una inteligencia artificial tendría que desarrollar esos 'sentimientos', una forma de llamar a aquellos comportamientos necesarios que aseguran su propia supervivencia.

Se trataría de simular una propiedad biológica, la de la homeostasis; esto es, la capacidad de los propios organismos para permanecer dentro de un estrecho abanico de condiciones consideradas aceptables para mantenerlos con vida (por ejemplo, una determinada gama de temperaturas corporales).

Si pudiéramos enseñar a las máquinas qué factores ocupan ese papel en su propia superviviencia (cables conectados, cantidad adecuada de corriente eléctrica, etc), podríamos dotarlas de un comportamiento autoconservador: esto es, dotarlas de un sentido de la vulnerabilidad que les haga sentir 'miedo' de las amenazas a su existencia, y que les 'reconforte' cuando esos factores se restablezcan.

El camino a la inteligencia a través del sentimiento

Pero, aunque todos podemos percibir las ventajas de lograr esto... ¿por qué habrían de suponer estos 'sentimientos' una mejora cognitiva de la inteligencia artificial capaz de acercarla a una inteligencia general de tipo humano? Man y Damásio parten de la base de que nuestra propia cognición de alto nivel es la consecuencia de la adaptación de la especie humana para resolver de forma más eficiente el problema biológico de la homeostasis.

Los investigadores están convencidos de que éste es el ingrediente que haría falta para conseguir una IA equivalente a la humana, en el sentido de que no estaría diseñada únicamente para tareas altamente especializadas, sino que podría desplegarse en toda clase de situaciones, incluso en aquellas no previstas por su programación.

Pero la comprensión del propio estado interno, una cierta forma de autoconciencia, es necesaria para permitir que las IAs perciban las amenazas a su existencia, y eso sólo puede 'enseñarse' recurriendo aprendizaje profundo o 'deep learning' y al uso de redes neuronales artificiales, que permiten detectar y clasificar patrones en la entrada de datos.

Gracias a esas tecnologías, una IA podría deducir relaciones causa-efecto entre su estado interno y las condiciones externas, igual que lo hace ya entre un determinado movimiento de labios y el sonido emitido al hablar, y el conocimiento dichas relaciones serían la base de sus 'sentimientos', que le llevarían a comportarse de forma creativa, sin basarse en condiciones preprogramadas para cada eventualidad, únicamente buscando su propia homeostasis... o la de aquellos que le rodean.

Legislar la empatía

Entraríamos ahí en un ámbito reservado a las famosas Leyes de Asimov, o a las normas con las que queramos dotarnos en el futuro para estos casos, puesto que es obvio que querremos protegernos de determinadas consecuencias indeseadas de la voluntad de autopreservación de las IAs... sobre todo de aquellas con presencia física, como los robots.

Recordemos que, en la ficción de Asimov, y de tantos autores después de él, la autoprotección robótica estaba supeditada a la protección de la homeostasis humana, así como a la obediencia a las órdenes de éstos.

Man y Damásio se muestran convencidos de que no nos tendríamos que enfrentar a ninguna Skynet si logramos que las máquinas, "además de tener acceso a sus propios sentimientos, puedan conocer los sentimientos de los demás, es decir, estén dotadas de empatía". Gracias a eso, las 'Leyes de Man-Damásio' (ellos no las llaman así, claro está) para las IAs se reducirían a dos órdenes muy concretas y breves: 1) Siéntete bien y 2) Siente empatía.

Entre los seres humanos, los psicópatas se definen por su absoluta incapacidad de 'ponerse en el lugar del otro', es decir, por su ausencia de un elemento tan básico para el resto de nosotros como es la empatía. Y sin embargo, podemos encontrar miles de ejemplos diarios de personas que, aún sintiendo empatía, son capaces de hacer daño a sus semejantes voluntaria o involuntariamente... lo que hace que esta propuesta 'legal' peque de un enorme optimismo.

Sin embargo, la propuesta de seguir investigando la relación entre ánimo de autopreservación y el desarrollo de IA general parece más prometedor, a la luz de su investigación.

Vía | ScienceNews

Imagen | PxHere

Ver todos los comentarios en https://www.xataka.com

VER 5 Comentarios

Portada de Xataka