He pasado tres días de retiro científico con la élite de la investigación en IA en España. Esto me han contado

He pasado tres días de retiro científico con la élite de la investigación en IA en España. Esto me han contado

Un grupo de investigadores se retiraron a la montaña, para explorar la deriva de la IA y sus incertidumbres

12 comentarios Facebook Twitter Flipboard E-mail
Cristalera AIHUB

Ha pasado casi una hora desde que salí de Madrid y debo estar a punto de llegar a La Cristalera. El tráfico apelmazado de la M-30 ha cambiado a un paisaje verde y neblinoso. Hay prados de hierba con vacas y algún rebaño de ovejas. El frío se barrunta en el aire. Y la carretera, mojada, y estrecha, asciende a base de curvas.

La Cristalera es un pabellón de madera y piedra levantado en los años 50 y reconstruido después. Está encaramado a la sierra de Guadarrama, en la falda del puerto de la Morcuera, de 1.776 metros de altitud. Allí se reúne durante tres días parte de la élite de la investigación de la inteligencia artificial en España. En un refugio entre bosques de pinos y robles. Desayuno, comida, cena y noche. Tres días de retiro en plena naturaleza para debatir sobre los avances de la IA y su impacto en la sociedad.

Con el patrocinio del AIHub (CSIC) y del AXA Rsearch Fund, se dan cita perfiles computacionales e ingenieros, pero también gente procedente de la biología o de la física. Incluso hay investigadores del ámbito de la sociología, la filosofía, el derecho o la economía. Es una composición diversa, poco común en los congresos científicos. Porque el objetivo aquí es debatir y reflexionar sobre inteligencia artificial en su forma más amplia. Se busca profundizar en los fundamentos de la tecnología, divisar sus aplicaciones y anticipar su impacto en la sociedad. "Están algunos popes de la IA en España", me cuenta un doctorando nada más llegar. También asisten estudiantes, postdoctorados y predoctorados.

La Cristalera Entrada al recinto de La Cristalera, el lugar escogido para el retiro científico en la sierra de Guadarrama de Madrid

Tratando de encontrar el sentido

Las conferencias empiezan con una de las complejidades crecientes para hacer inteligencia artificial. "Ahora estamos en un síndrome de Diógenes de los datos", señala Verónica Bolón Canedo, investigadora de IA en el Centro de Investigación en Tecnoloxías da Información e as Comunicacións da Universidade da Coruña. Explica que se acumula información de todo tipo pero no siempre es de calidad. Y esto es un problema para los resultados, claro. "Shit-in, shit-out", recalca, antes de añadir: "Además, aparece la manzana podrida. Podemos tener muchos datos buenos pero si hay uno erróneo puede echarse a perder el resultado. La preparación de los datos puede llegar a suponer el 80% del trabajo en IA porque los datos del mundo real hay que adaptarlos".

Estamos en una sala pequeña, con una treintena de personas. La mayoría, hombres, minoría de mujeres. Casi todos los asistentes llevan libretas y hacen anotaciones a papel y boli en vez de con ordenador, algo llamativo en un foro donde se debate sobre lo más puntero de la tecnología.

Pronto surge debate entre el deep learning (que usan modelos como ChatGPT, Bard o Dall-E) y métodos de machine learning más tradicionales. "El deep learning no lo entendemos. Falla menos que los métodos más tradicionales. Estos, sin embargo, fallan más pero los entendemos bien", incide Bolón Canedo en referencia a la caja negra del deep learning. Entender el sistema tiene sus ventajas a la hora de trabajar con ellos. "¿Por qué necesitamos explicar los modelos?", se pregunta Pedro Larrañaga, catedrático en Ciencias de la Computación e Inteligencia Artificial en la Universidad Politécnica de Madrid y con más de tres décadas a sus espaldas como investigador de IA.

Y argumenta que si el sistema no es comprensible para el humano es más difícil que lo utilice, a nivel industrial o comercial: "La FDA (Food and Drug Admnistration, en Estados Unidos) está aprobando en los últimos años alrededor de 100 programas anualmente de inteligencia artificial, sobre todo de radiología, pero la mayoría no se usan. Si no involucras al humano desde el principio, mal asunto".

Veronica Bolon Canedo Verónica Bolón Canedo, del Centro de Investigación en Tecnoloxías da Información e as Comunicacións da Universidade da Coruña

Se mezclan los enfoques teóricos con los prácticos, el empirismo con las hipótesis. Chocan las posturas. Hay ponentes más titubeantes, otros intervinientes más asertivos, otros que hablan como haciendo un esfuerzo de reflexión para formular la pregunta exacta. Hasta se escucha algún "no sé", como admisión humilde de los límites del conocimiento pero que suena extraño en boca de una persona cuyos trabajos, publicados en revistas científicas de prestigio, acumulan citas de otros investigadores.

Durante la comida los estudiantes comentan de pasada el debate. "Sí, sí, he visto tensión ahí", dice uno. Todos lo secundan y silban algunas risitas. Quizá no esperaban ver a los investigadores discutir con tanta vehemencia. Aunque la conclusión es casi unánime. Para algunas tareas solo necesitas el mejor resultado posible y aquí gana deep learning. Pero para otras necesitas conocer la explicación que proporcionan métodos de IA más tradicionales. En medicina, un modelo que prediga de forma precisa que alguien sufrirá cáncer no es suficiente. Hay que saber por qué el sistema ha llegado a esa conclusión para poner medios que prevengan ese resultado.

El Pabellón de La Cristalera es como un hotel de campo antiguo, con suelo rústico de baldosas terrazo y de barro cocido. Tiene un comedor amplio y cafetería, todo cobijado por un techo de gruesas vigas de madera. Pienso que en su atmósfera a media luz no desentonaría el crepitar de una chimenea encendida. Los investigadores se alojan en habitaciones que tienen un aire austero, como de celda de monasterio, pero con suficiente comodidad.

Comida Evento Aihub En el comedor a veces se continuaba en grupos pequeños el debate que había surgido durante las charlas

"Tengo la sensación de esperar durante mucho tiempo a que llegara un tren y cuando ha llegado…", José Hernández-Orallo emite un "fuuuuuum" y lo acompaña con un gesto de velocidad de la mano para indicar que ese tren ha pasado de largo como un tren bala, sin parar en la estación ni esperar a nadie. Habla de la inteligencia artificial y lo dice alguien que es catedrático en la Universidad Politécnica de Valencia e investigador de IA en varios centros, dos de ellos pertenecientes a la Universidad de Cambridge. C

omo frenar el ritmo de desarrollo es difícil, Hernández-Orallo apuesta por conocer mejor los modelos: "Hay que poner énfasis en la predecibilidad. Prefiero quedarme con un sistema que tenga una probabilidad del 97% y que sepa caracterizar el 3% restante que con uno que acierte en un 99% de las veces, pero el 1% que queda no sé cómo se produce. No confiamos en resultados impredecibles. Si no hay predecibilidad, las empresas no se harán responsables".

Uno de los comentarios recurrentes entre los científicos reunidos es que ahora hay tal número de avances, se publican tantos trabajos, papers, resultados, que es difícil leerlo todo para estar al día.

La aplicación de la IA

El congreso también tiene hueco para los robots, considerados popularmente como la materialización de la inteligencia artificial. Pero las ideas populares no son las de los expertos. "Vamos hacia una robótica asistencial realista”, destaca Guillem Alenyà, director del Institut de Robotica i Informàtica Industrial. "No son robots que saltan y corren. ¿Para qué se imagina la gente que el robot cuidador tiene patas?".

Alenyà apuesta por robots de propósito específico, como NYAM, que diseñaron desde la iniciativa LabORA para dar de comer a personas incapacitadas. Consiste en un brazo robótico que sostiene una cuchara y la lleva a la boca del usuario. El sistema identifica cuándo la persona está preparada para recibir el siguiente bocado y se inhibe si detecta que habla con alguien o no abre la boca. El objetivo es apoyar al personal del hospital o la residencia, para que este pueda atender mejor a varios pacientes sin la presión de tener un tiempo reducido para dar de comer a cada uno.

Guillem Alenya Guillem Alenyà, director del Institut de Robotica i Informàtica Industrial

Antes de desarrollar el robot, los investigadores tienen que entender la parte social de estas tareas. Acuden a un hospital y ven cómo los cuidadores, enfermeras, familiares dan de comer a los pacientes. Hablan con los trabajadores, con los mayores, con psicólogos para comprender qué necesidades tiene que resolver la máquina.

La robótica asistencial no llega para sustituir a los cuidadores. Uno de los objetivos es alargar el tiempo que las personas mayores pueden permanecer en su casa, antes de ir a una residencia. Los robots pueden ayudar en cuestiones tan sencillas como recordar al anciano que tiene que beber agua o tomar la medicación después de comer. Los investigadores creen que este tipo de tareas pueden marcar la diferencia entre que venga un cuidador por la mañana y por la noche, para levantar y acostar a la persona, y necesitar uno durante todo el día, una opción demasiado cara para mucha gente.

Ante los robots domésticos surge la ocurrencia popular de integrar en ellos ChatGPT para crear máquinas conversadoras. Pero hay una dificultad intrínseca. Utilizar redes neuronales requiere una potencia de computación enorme. Por eso estos sistemas recurren a la nube, mientras que los robots suelen trabajar localmente. "¿Usar LLMs (modelos de lenguaje de gran tamaño) en robots?", Alenyà recoge el guante. "Pero lo que queremos es una respuesta en dos segundos, ¿no? Pues eso ahora no se puede. Con la visión artificial tampoco es posible. Porque todos estos desarrollos no están pensados para robots", zanja el especialista en robótica. Si integraran un LLM en un robot las respuestas de este tardarían en llegar medio minuto, algo que destruye la ilusión de empatía que se pretende cultivar con la máquina.

Los LLM son la aplicación de moda en estos momentos en inteligencia artificial. Los investigadores reconocen sus capacidades pero llaman a la cautela. El calificativo que pone Julio Gonzalo a ChatGPT (y a cualquier LLM) es suigéneris pero tiene gancho: "Es un supercuñado", advierte. Porque ChatGPT parece que sabe de cualquier cosa cuando no es así. "El mayor problema de los modelos de lenguaje es que no son fiables. Al ser modelos puramente intuitivos contestan de oídas, con un conocimiento muy superficial de todo lo que han leído", apunta este catedrático de la UNED e investigador principal del grupo de investigación en Procesamiento del Lenguaje Natural y Recuperación de Información, de la UNED.

Julio Gonzalo Julio Gonzalo, investigador principal del grupo de investigación en Procesamiento del Lenguaje Natural y Recuperación de Información, de la UNED

"Nunca conseguiremos que esta máquina multiplique bien, porque multiplicar es un algoritmo que se hace de una manera determinada. Y esta máquina no es capaz de deducir un algoritmo porque no piensa", me explica Gonzalo. "Lo que hace es multiplicarte de oídas. Si son números pequeños, los ha visto (ChatGPT se ha entrenado con datos de Internet hasta 2021) y te los dice bien. Si son cifras grandes, no las ha visto y las multiplica mal".

Para resolver esto se intenta dar más contexto en las consultas o se introducen plugins. Pero esto solo son parches. La auténtica solución para que el modelo deje de alucinar es que tenga un conocimiento explícito y capacidad de razonar, según Gonzalo, algo que hoy por hoy está lejos de su alcance.

"El hablar de la extinción de la humanidad (por la IA) es ocultar los problemas de hoy. El apocalipsis es un montón de gente haciendo caso a un supercuñado", sostiene el especialista en modelos LLM, y recuerda que hay usuarios que confían en ChatGPT para dietas o rutinas de ejercicio personalizado, incluso un abogado citó en un juicio jurisprudencia inventada por el chatbot.

Y con las aplicaciones de la IA surge otro debate. Es uno de los más candentes: el laboral. Uno de los investigadores señala que la automatización siempre ha eliminado puestos de trabajo, desde la Revolución Industrial. Pero uno de los asistentes matiza: otras veces no ha sido tan rápido como se presupone ahora. La reflexión se extiende y el punto de vista de unos y otros confluye: "No podemos seguir en esta cultura de que nuestro valor es el valor de nuestro trabajo". Otro de los investigadores converge: "Los modelos de reparto económicos en la sociedad tienen que cambiar". Y un tercero asiente con una sonrisa: "Los robots tendrán que pagar impuestos".

No es algo descabellado. Otro de los ponentes lo justifica con una extrapolación razonada: "Un ejemplo son los impuestos por emitir CO2. Antes eran impensables. Pues en el futuro habrá que pagar impuestos por los robots o por el agua que consume la inteligencia artificial".

La ética y derecho: el anhelo de un marco para la IA

Las cuestiones que más agitan el debate tienen que ver con el impacto anticipado en la sociedad. En esta congregación de investigadores de primer nivel se barajan incluso los escenarios más pesimistas. La socióloga Sara Degli-Esposti, investigadora del CSIC y autora del libro La ética de la inteligencia artificial, pone sobre la mesa la posibilidad de que la máquina adquiera sus propios objetivos. Es decir, el humano le da un objetivo final, pero el sistema determinará los subobjetivos más efectivos para alcanzar su meta. Un ejemplo de consecuencias peligrosas sería el de drones autónomos bélicos y sus posibles daños colaterales.

Son ejercicios de reflexión que se adentran en la filosofía, la moral y la ética, siempre bordeando lo técnicamente conjeturable. Otro de los riesgos de la IA son los sesgos de los algoritmos o, directamente, sus errores. Aunque Degli-Esposti lanza una idea que une muchos puntos de fricción: "Los problemas de la tecnología no se resuelven con la tecnología". Aduce que son problemas humanos, trasladados por sus creadores a los sistemas o derivados del uso que se hace de la tecnología por los seres humanos.

Ia Debate Una de las sesiones en las que se trataba el impacto de la IA en la sociedad

El discurrir de la conversación lleva a plantearse si las especulaciones catastrofistas no son sino una mera distracción de asuntos más perentorios. "También se llega al mismo sitio si me estoy cargando el planeta”, señala Degli-Esposti. "Si estás agobiado no vas a tomar decisiones. Para quitar de en medio el tema de la extinción [de los humanos a causa de la IA] del debate digo vale, ya estamos muertos y ahora podemos empezar a hablar de los problemas que tenemos”.

Aunque incluso esto acarrea debate. Se elevan voces que recuerdan cómo algunos de los padres fundadores de la IA advirtieron en este sentido. Uno de los investigadores se pregunta si no se estará ahora la IA en el momento en que Marie Curie descubrió el radio y traza un paralelismo que todos sabemos de antemano hasta dónde se estirará: la bomba atómica. No es que lo afirme, pero estamos en un foro que permite plantear la cuestión en alto y debatirla. Aunque después no se concluya nada. Hay posturas de todos los colores y, tras un sesudo deliberar, uno de los investigadores plantea si no sería una buena idea que haya una entidad global que vigile el estado de la inteligencia artificial, un ente comparable al Organismo Internacional de la Energía Atómica, de la ONU.

El tiempo ha sido benévolo durante los días de retiro, tanto que permite conferencia y debate al aire libre. Se habla de la regulación de la inteligencia artificial con el piar de fondo de los pajarillos y un rumor de arroyo. La entre sombra de los pinos tamiza la luz vespertina que solea el porche. El entorno no puede ser más natural para un tema tan artificial como incrustar inteligencia en las máquinas.

Aihub Evento Ia Etica Debate sobre la regulación y la ética de la IA en plena naturaleza

Que la regulación siempre va por detrás de la tecnología es un hecho. Con la IA ocurre igual. "Las reglas tradicionales que fueron pensadas para un mundo analógico ya no funcionan más. Por eso hay problemas", expone el jurista Francisco José Bariffi. No contamos con los mecanismos legales necesarios para contener los efectos nocivos de la inteligencia artificial. "Desde le punto de vista jurídico uno de los primeros problemas que se plantea con la IA es su estado. Hay objetos y sujetos. Por ejemplo los animales son objeto de protección pero no sujetos de derechos. Ser sujeto es tener derechos pero también responsabilidades. Se dice que la inteligencia artificial es capaz de tomar decisions como los humanos. Pero para el derecho la clave está en que tome decisiones sin intervención humana", reflexiona.

¿Y los propios cortapisas de las maquinas? Hay investigadores que creen posible traducir enseñanzas deontológicas en ingeniería. Se suceden las intervenciones con pinceladas filosóficas, se acude a lo básico de la moralidad y se muestran fórmulas matemáticas, con variables como el valor, la acción y la norma, orientadas a proporcionar una ordenación de los valores en sistemas artificiales. “Hay formas de que la máquina aprenda qué está bien y qué está mal. Existe el aprendizaje por refuerzo pero también el aprendizaje por imitación”, apunta una de las investigadoras.

Pero la siguiente pregunta atasca el debate. "¿Qué ética? Porque hay muchas éticas", comenta otra investigadora del ámbito de la filosofía. "¿Quién fijaría esa ética?", se cuestiona otro de los asistentes. Y volvemos a otra de las incógnitas de base: cómo se planteará legalmente lo que quiera que se decida en torno a la ética de la IA.

Imagen | Xataka

En Xataka | Esto no es el apocalipsis: doce puntos optimistas sobre ChatGPT y el futuro que nos espera

Inicio