En el uso de la inteligencia artificial hay dilemas más urgentes que el del tranvía

En el uso de la inteligencia artificial hay dilemas más urgentes que el del tranvía

9 comentarios Facebook Twitter Flipboard E-mail
En el uso de la inteligencia artificial hay dilemas más urgentes que el del tranvía

La influencia de los algoritmos en la toma de decisiones difíciles es cada vez mayor. Ayudan en los diagnósticos médicos, indican dónde invertir, califican la solvencia de quienes aspiran a obtener un préstamo, señalan quién puede percibir ayudas sociales... Los algoritmos influyen en decisiones trascendentales para muchísimas personas, así que deberían ser infalibles. Y éticos.

El dilema tecnoético por antonomasia es el dilema del tranvía. Hay unas cuantas versiones distintas pero la base es siempre la misma: el conductor de un tranvía debe decidir entre atropellar a una o varias personas o evitarlo pero poniendo en riesgo a quienes transporta. La adaptación moderna del dilema sustituye el tranvía por un coche autónomo y al conductor por una inteligencia artificial. Pese a lo presuntamente retador de la propuesta (hasta el MIT tiene su propia versión online del experimento), cada vez son más las voces expertas que reclaman que los debates en torno a la ética de la IA deberían ir por derroteros más realistas.

Moral Machine 2
Algunas escenas planteadas por Moral Machine no son precisamente fáciles ¿Salvamos al bebé que viaja solo o al perro que sabe cruzar por un paso de cebra? MIT

Uno de los usos habituales de los algoritmos en materia de decidir quién vive más o menos se da en centros de investigación donde simulan catástrofes naturales para que gobiernos y ONG puedan prever cómo van a actuar en esos casos. Los efectivos son limitados, así que hay que decidir dónde van a intervenir. ¿Se rescata a las personas atrapadas en un supermercado que está ardiendo o se intentan recuperar las medicinas almacenadas en los sótanos de un hospital a punto de inundarse? ¿Se envía al ejército a una de las dos opciones anteriores o se despliegan sus efectivos para intentar proteger una central nuclear? Los algoritmos tienen respuesta para todas estas cuestiones, pero para que las sugieran, antes hay que definir el valor de los parámetros: vidas humanas, víveres, medicinas, infraestructuras críticas… Hay que matematizar la realidad.

“Las máquinas funcionan con matemáticas y los algoritmos están escritos en lenguaje formal. Por eso es muy complicado implementar una ética, porque una cosa es aprender a leer o a conducir, y otra cosa es aprender ética, que implica experiencia y empatía”, explica Pilar Dellunde, matemática, filósofa y profesora en la Universidad Autónoma de Barcelona. “No basta con las normas de Asimov sobre que un robot no puede hacer daño a una persona, eso es muy fácil ponerlo en una novela. Pero causar daño a un ser humano es un concepto que una máquina no puede entender así como así. Si ya para nosotros es un concepto difuso, sólo hay que imaginar cómo puede aplicar una maquina un concepto de esa naturaleza.”

Algoritmos implacables, ¿usos neutrales?

Para la filósofa y matemática, las reflexiones teóricas sobre “vamos a matar al viandante o al pasajero o qué pasará cuando las máquinas posean la tierra” son “irreales porque no estamos en ese punto”. Los debates éticos deberían ser otros, por ejemplo, si se producen discriminaciones o sesgos. Y no faltan casos así.

El penúltimo toque de atención al trabajo de un algoritmo se publicó en Science en octubre de este año. Varios expertos descubrieron que el algoritmo que se utiliza mayoritariamente como referencia para planificar la oferta de servicios sanitarios en Estados Unidos produce sesgos raciales.

El algoritmo calcula las demandas sanitarias de una zona a partir de lo que gastan en servicios sanitarios las personas que allí viven. Más gasto supone mayor demanda de servicios sanitarios y, en consecuencia, que el algoritmo marque la zona como susceptible de que se amplíe su oferta de servicios sanitarios. Por el contrario, se asume que las zonas donde se produce un menor gasto tienen la demanda de servicios sanitarios cubierta.

Esta relación más gasto=más demanda es muy discutible, pues supone que sólo existe la demanda de un servicio cuando se paga por ese servicio, como si fuera imposible que alguien se quedara sin algo que quiere porque no puede pagarlo. (Llevado al ejemplo del mercado laboral, no existiría paro porque sólo demandaría trabajo quien lo tiene) Si tenemos dos enfermos que necesitan atención médica pero sólo uno de ellos paga por ella, el algoritmo que nos ocupa sólo contabilizaría el primer caso, no el segundo. El matiz no es un asunto menor en un país donde un viaje de 10 minutos en ambulancia puede costar cientos de dólares (factura médica aparte).

Tras el análisis de los datos, el algoritmo obtiene conclusiones tajantes: muchas de las zonas donde menos gasto sanitario se produce tienen una proporción importante de población negra. ¿Es porque están más sanos que los demás? No, es porque gastan menos dinero en servicios sanitarios. En consecuencia, el algoritmo asume que como el gasto es reducido, las demandas de servicios sanitarios deben de estar cubiertas y, por tanto, sugiere que no hace falta añadir más servicios sanitarios en esas zonas en particular.

Así que tenemos un algoritmo que recomienda que se preste menos atención a quienes menos pagan por servicios sanitarios, que en este caso es la población negra. ¿Es injusto el algoritmo? ¿Es racista? ¿Acaso es la reencarnación algorítmica de un capitalismo implacable? No, no y seguro que sí. Pero el algoritmo no tiene culpa ninguna. En todo caso, injusto y racista lo será el equipo que ideó el concepto que los desarrolladores trasladaron al algoritmo. Pero el algoritmo cumple intachablemente con su objetivo. Otra cosa es si es ético usar un algoritmo programado de esta forma para determinar el futuro a largo plazo del sistema sanitario estadounidense.

La responsabilidad es de la máquina

Aunque se suele hablar del poder decisor de los algoritmos, lo cierto es que en muy raras ocasiones el algoritmo decide. Normalmente aporta la información que sirve para que la persona encargada tome la decisión. Eso es así en la teoría. En la práctica puede que el ser humano se olvide de su poder decisor y prefiera cederle la responsabilidad a la máquina. “Esto es cada vez más habitual en el sector sanitario”, explica Dellunde. “Mucha gente interpreta que las máquinas son mucho más objetivas y eficientes, y en algunos casos lo serían, pero hay poca crítica respecto a que muchas veces no sabemos cómo funcionan”.

"Una cosa es que un humano apriete un gatillo a distancia, y otra muy distinta es que un arma tenga autonomía para decidir quién muere y quién no”

Para Dellunde, ceder el poder de decisión a las máquinas ya es cuestionable pero lo es todavía más si no se sabe a ciencia cierta cómo la máquina ha obtenido sus conclusiones. “En la ciencia es básico que puedas reproducir un experimento, también en medicina. Pero en ingeniería, por primera vez, tenemos una situación donde sabemos lo que obtenemos pero no cómo lo hemos obtenido. Hasta que no ves la consecuencia, no te das cuenta de que la máquina está cogiendo unos datos que no son correctos. Y esto no es sólo un bot de Twitter que se vuelve racista, sino que este problema puede darse también en sectores como el militar, donde la comunidad científica ya ha alertado de los riesgos del uso de armas autónomas. Una cosa es que un humano apriete un gatillo a distancia, y otra muy distinta es que un arma tenga autonomía para decidir quién muere y quién no”.

Según la profesora, muchos de los dilemas éticos actuales se deben a que se sobreestima la capacidad de la IA actual. El imaginario colectivo asume que la inteligencia artificial se parece, o debería parecerse, a HAL 9000, la superIA de ‘2001: una odisea en el espacio’. “Estamos muy lejos de HAL, no hay suficiente conciencia de los límites de la tecnología. Que Siri o Alexa hablen un lenguaje parecido al nuestro hace que la gente acabe pensando que hay más inteligencia de la que hay. Y realmente está muy limitada. El problema no es que las máquinas vayan a tener una superconciencia que nos vaya a eliminar, sino que ahora mismo hay algoritmos con errores o con programaciones que no son lo suficientemente buenas para las tareas que se proponen”.

Aunque podamos atribuir cierta inteligencia a las máquinas, concluye la profesora, las máquinas no tienen conciencia ni tampoco razonamiento ético. Así que el foco no debe ser preguntarse si las máquinas pueden obrar de acuerdo a la ética humana, sino asegurarnos de que los seres humanos las usemos, nosotros que podemos, de forma ética.

Imágenes | Cabecera |

Comentarios cerrados
Inicio