¿Puede 'volverse loca' una inteligencia artificial?

¿Puede 'volverse loca' una inteligencia artificial?
16 comentarios Facebook Twitter Flipboard E-mail

A medida que avanzamos en la creación de inteligencias artificiales cada vez más perfectas, rápidas y certeras; a medida que dejan de ser solo líneas de código y van ganando profundidad emocional y calidad humana; a medida que son capaces de sentir mejor, de pensar mejor y van asumiendo partes cada vez más significativas de nuestra vida diaria: hay preguntas que antes podrían parece absurdas pero que, de repente, se vuelven relevantes.

Por ejemplo, ésta. Hoy por hoy, hace centenares de inteligencias artificiales estudiándonos y aprendiendo de nosotros. ¿Y si llega el momento en que se nos parezcan demasiado? ¿Podría una inteligencia artificial (o un robot) sufrir una enfermedad mental?

Un tema que quizá no sea de ciencia ficción

Robot 2 800x449

Como de costumbre esta no es una posibilidad genuinamente nueva. La idea de inteligencias artificiales que se vuelven disfuncionales e incluso peligrosas puebla la ciencia ficción: desde HAL 9000 al Santa Claus de Futurama. No obstante, salvo por el trabajo de Susan Calvin, una de las primeras robotpsicólogas de la historia, ni siquiera la literatura ha explorado en profundidad los escenarios en que esto podría ser un problema.

Y podría serlo. ¿Imagináis una inteligencia artificial a cargo del control aéreo de un aeropuerto que sufriera alucinaciones? ¿Un coche autónomo con problemas de la ira? ¿O un robot quirúrgico con ataques de ansiedad? Reconozco que formular estas preguntas en voz alta resulta algo ridículo, pero ¿y si no lo fuera? ¿No deberíamos trabajar desde ya sobre esta inquietante posibilidad?

La salud mental de las mentes artificiales

322d731fc050a85830770473bbde7a32

Hutan Ashrafian, de hecho, no solo cree que no es ridículo en absoluto, sino que deberíamos pensar en ello seriamente. Ashrafian es cirujano y profesor de medicina en el Imperial College London. Pero, sobre todo, es conocido por ser uno de los defensores más conocidos de la ampliación de los derechos humanos a las inteligencias artificiales. Una causa de la que ya os hablábamos hace una década y que, en nuestro país, cuenta también con simpatizantes como Helena Matute, catedrática de Deusto.

Para el profesor Ashrafian la pregunta central es si la enfermedad mental es algo que está ligado a las capacidades cognitivas y emocionales del ser humano o no. De ser así, "a medida que las inteligencias artificiales se parecen más a nosotros, a medida que aprenden de nosotros podrían desarrollar problemas parecidos a los nuestros". Hay que reconocerle que, por ridículo que pueda sonar, el argumento es tremendo.

Sabemos tan poco de las inteligencias artificiales realmente avanzadas como de la salud mental y ese es el problema

También es posible que las enfermedades mentales, los problemas cognitivos y los trastornos psicológicos sean 'bugs evolutivos', por llamarlos de alguna manera; es decir, 'fallos' de diseño que venimos arrastrando evolutivamente y que son susceptibles de depurarse.

El problema, como señala el mismo Ashrafian, es que aún estamos en las puertas de la verdadera revolución de las IAs, por un lado; y que sabemos muy poco de la salud y la enfermedad mental, por el otro. Es decir, nos dirigimos a lo desconocido. Y aunque eso mismo es la promesa de que vamos a poder aprender mucho sobre ambas cosas, también debe hacernos reflexionar sobre los riesgos que se plantean. Riesgos que van más allá de los que nos suelen precupar cuando pensamos en mentes artificiales.

En Xataka | Éticas de silicio: las tres leyes de la robótica en la era de los robots asesinos y La gente que ama a los robots y quiere defender sus derechos

Comentarios cerrados
Inicio