Xataka
Contenidos contratados por la marca que se menciona.

+info

Al hablar delante de un micrófono, nuestra voz genera sobre el aire ondas de presión positiva que impactan contra una membrana a la que llamamos diafragma. Mediante un imán situado algo más abajo, se mide con precisión el movimiento vibratorio del diafragma y, con ello, se captura nuestra voz. Así es como una máquina aprende a oír, pero no es lo mismo que escuchar.

Sophia —la combinación de una inteligencia artificial con un robot ginoidecapaz de desplazarse— analiza el ruido que sus micrófonos detectan en el aire. Lo filtra, limpia, compacta, segmenta y analiza en fracciones de segundo, extrayendo de él palabras y comparándolas con una gran base de datos en un proceso llamado procesamiento lingüístico. Así “escucha” una IA, y no es el único sentido que tienen.

Oír no es escuchar, y un sensor no es un sentido

A menudo confundimos sensor y sentido, porque la mayoría de nuestros sentidos ( visión, olfato, gusto, tacto, audición ) están muy referenciados a órganos específicos: ojos, nariz, lengua, piel y oído. Sin embargo, ya hemos visto que para escuchar necesitamos algo más que un componente que nos ayude a percibir el ruido vibrando en el aire.

Necesitamos comprender, aunque sea a un nivel básico, qué ruido estamos oyendo, qué lo genera y qué significado tiene. Además de un procesador o cerebro, la mayoría de nuestros sentidos usan más de un componente para dar con la solución a la que llamamos sentidos, como al combinar tacto, oído y cerebro para saber nuestra posición relativa.

Las máquinas incorporan desde hace décadas una gran cantidad de receptores a los que, siguiendo con la metáfora, podríamos llamar órganos: los sensores. Así, una máquina puede detectar el sonido del latido del corazón de una persona con una fidelidad envidiable —y con ello ofrecer un mejor servicio de salud—, pero esto no significa que tenga la capacidad de disfrutar de una canción. Para eso hace falta una inteligencia avanzada (artificial o biológica) y un número amplio de sensorescombinados. ¿Hemos llegado a este punto tecnológico?

Sí, en ciertos ámbitos muy concretos y dentro de un espectro muy definido. Una IA puede percibir muchísimo mejor que un gato o un humano qué temperatura hace en un cuarto, pero es poco probable que sepa interpretar otra señal que nosotros relacionamos con los sensores de la piel, como el calor del Sol o una caricia.

¿Cómo puede ver la ciudad un vehículo autónomo?

Hay dos grandes ejemplos del uso de la vista por parte de la inteligencia artificial: los ya clásicos sensores del vehículo autónomo, y el procesamiento de la cámara en los dispositivos con procesadores de última generación. Es importante destacar que la última generación se presenta en los procesadores, no necesariamente en las cámaras.

En China, varias agencias están interesadas en capturar el recorrido de matrículas y rostros con el fin de frenar para siempre la delincuencia. Para ello, se analizan en tiempo real las grabaciones realizadas por cámaras corrientes. Lo importante se almacena en servidores, a veces a cientos de kilómetros.

Esta imagen contrasta con el procesamiento local que puede tener una fotografía en un teléfono Huawei P20 Pro, ya que su chip Kirin —diseñado específicamente para soportar procesos de inteligencia artificial— se encarga de mejorar diferentes parámetros ópticos de la cámara, así como otros tantos filtros y operaciones de software.

El ejemplo más completo del uso de la IA y la visión, como decíamos, es el del vehículo autónomo. Abajo podemos ver cómo el AUTONOM CAB, un taxi autónomo de la marca NAVYA, recorre las calles de París. Sobre el vehículo, varios «bultos» sobresalen. En los extremos se encuentran los sensores LiDAR, encargados de lanzar haces láser que rebotan contra los objetos y generan un mapa a 360º sobre la horizontal. ¿Qué humano puede ver lo que pasa detrás?

Además del LiDAR, este y otros vehículos autónomos cuentan con cámaras de alta definición conectadas a un sistema de procesamiento de datos, similares a nuestros ojos. La combinación de ambos, LiDAR y las cámaras, se enfrenta en un cálculo de doble verificación al que se suma un tercer elemento clave: los radares.

El bulto oscuro sobre la luna delantera es uno de estos radares. Gracias ellos, la IA que conduce el vehículo autónomo sabe a qué distancia se encuentran los demás vehículos de la carretera. Combinando todo se consigue la redundancia necesaria para conducir de forma segura. Quizá dentro de una década ningún humano conduzca, y la economía cambiedebido a ello.

Las máquinas también perciben el movimiento

La mayoría de nosotros sabemos en qué posición nos encontramos al despertarnos (tumbados, sentados e incluso de pie si el cansancio nos ha hecho dar una cabezada) y para comprobar esta postura ni siquiera tenemos que abrir los ojos. Tampoco para saber si estamos o no acelerando o girando a gran velocidad.

Es un sentido llamado propiocepción, que aparece al combinar una serie de órganos, por supuesto, de forma inconsciente. Un robot también puede tener propiocepción. Así, gracias a que una IA analiza distintos sensores de movimiento y cámaras, Atlas —el robot de la Boston Dynamics— ha podido aprender a hacer parkour:

En estos movimientos tan fluidos hay varios sensores clave. El acelerómetro, presente en todos los teléfonos desde hace años, se instala en cada miembro del robot para que este aprenda cómo de rápido o despacio se desplaza cada uno de ellos, por ejemplo.

A diferencia de smartphones como los de Huawei, los robots requieren dos, cinco o cientos de acelerómetros, uno para cada parte móvil. A ellos se suman los sensores de presión situados en los pies de Atlas, que ayudan a determinar la posición global y el reparto de peso; y las cámaras, que generan un mapa tridimensional donde la IA puede calcular el siguiente movimiento.

Cuando hablamos de conducción autónoma por parte de una inteligencia artificial, se extreman las precauciones. Es por eso que en robots como el coche que veíamos arriba hay sensores extra:

  • Antenas, con las cuales orientarse en grandes superficies y que informan, mediante triangulación, en qué posición se encuentra el robot en seis componentes (las tres dimensiones clásicas, más las tres correspondientes al giro).
  • Odómetros, con los que la inteligencia artificial es capaz de calcular la distancia recorrida, generalmente situados en cada una de las ruedas.

Comparar la medida del odómetro, las antenas, la calculada por la cámara, la que aporta el radar o el sensor LiDAR, hacen a esta combinación de impulsos un “sentido” muy robusto; como cuando las personas usamos el tacto, la posición de nuestros miembros o el oído para saber si estamos tumbados o corriendo.

Narices sintéticas de alta precisión

Hemos arrancado con una inteligencia artificial capaz de medir con alta precisión un sonido, como el de un corazón latiendo. Esto lo hacen ya mucho mejor que las personas, otra habilidad para las máquinas. De lo contrario, aún pondríamos la oreja en el pecho de los pacientes en lugar de conectarles a un monitor.

A menudo no nos damos cuenta de lo avanzado que está cierto sensor con respecto a nuestras capacidades sensoriales, si los hacemos inteligente y lo integramos con otros datos y sistemas de toma de decisiones. Uno de los casos más presentes e invisibles es el de los detectores de humo.

Uno de estos dispositivos, esté o no conectado, detecta partículas en el aire mejor que cualquier persona, pero solo será capaz de detectar humo. Si le pedimos que huela un asado para ver si está en buen estado, sería incapaz de reaccionar. De modo que uno de estos sensores olfatea mejor que nosotros —y probablemente mejor que los perros—, pero solo ante un estímulo concreto.

Un hotel con su propia IA orientada a la seguridad, y que cuente con una red de detectores de humo, no es más que un sistema nervioso que da la voz de alarma si en alguna habitación “huele” a humo. Estamos hablando de un sistema de narices sintéticas de alta precisión conectadas entre sí y a una inteligencia artificial. Distintos detectores similares se usan, con frecuencia, en sistemas industriales.

Las máquinas no tendrán límite sensorial

Según la marca Cyborg Nest, que está diseñando nuevos sentidos para los humanos , será posible ampliar nuestras capacidades con nuevos plugins. A un bombero le vendría genial, por ejemplo, sentir cuánto humo hay en una estancia, así como conocer su composición. Hace tiempo que lanzaron, con éxito, el sentido de la magnetorrecepción, con el que muchas aves y animales marinos se orientan en sus migraciones.

Las personas tenemos cinco sentidos clásicos (más si desgranamos alguno como el de la propiocepción), pero las máquinas podrían poseer una visión térmica como la que tienen los reptiles, un medidor de campo magnético como muchos peces, o un analizador químico como el de los insectos. ¿Por qué iban a quedarse limitadas a las capacidades humanas?

La IA está por todas partes y ya realiza tareas para las que los humanos no tenemos las herramientas apropiadas, como buscar en grandes bases de datos. Además, las máquinas hacen muchas actividades humanas mejor que nosotros, como oír un fragmento de pocos segundos de una canción y decirnos su título (Shazam), u observar una escena con la cámara del móvil y sugerirnos la mejor configuración para hacer la fotografía, como ocurre con el Huawei P20 Pro.

En el futuro, la IA se integrará en más sensores, generando nuevos sentidos artificiales, aunque pasará mucho tiempo para que estos se combinen del modo en que lo hacemos los animales. Sin embargo, eso no excluyente para que podamos sacarle partido a aplicaciones de sentidos muy específicas, como detectar las vibraciones de las réplicas de los terremotos, imperceptibles para nosotros, o magnificar el sentido de la vista para detectar tumores. Todos saldremos ganando.

Imágenes | iStock/Vladyslav OtsiatsiaiStock/Daniela DanailovaiStock/rclassenlayoutsImagexia