Esto es lo que aporta hoy la IA a tu móvil y esto lo que aportará en cinco años

WSL Branded Content

Expertos en Branded Content

La IA no es nueva, lo que sí es muy reciente es su aplicación en los dispositivos móviles. Tradicionalmente la IA se procesaba en la nube, pero hace unos años se empezó a diseñar una nueva forma de procesarla de un modo distribuido, en el que parte de los algoritmos y aplicaciones implicados en la ejecución de programas y aplicaciones “inteligentes” se ejecutan en los dispositivos, “en el edge”. Este “edge” no es, ni más ni menos, que el “lugar” ocupado por los dispositivos móviles, aquellos conectados al Internet de las Cosas, soluciones “smart”, como las SmartTV, etcétera.

El “edge” es, junto con el “cloud”, el otro escenario donde la IA se lleva a la práctica. Y los smartphones son parte de ese “edge” o frontera. Las ventajas del procesamiento de la IA en el “edge” son muchas: no se depende de la conectividad para usar tecnologías de IA, por ejemplo, lo cual implica tener que manejar tiempos de espera que no siempre son breves o predecibles. Además, los datos no tienen que salir de nuestro dispositivo, lo cual facilita la gestión de la seguridad y la privacidad.

Grandes empresas como Amazon o Google son las que plantearon en su momento este modelo de "reparto" de las tareas en el campo de la Inteligencia Artificial, y compañías como Huawei supieron adoptarlo para el diseño de sus procesadores a través de la integración de la NPU en el Kirin 970 y del diseño de la plataforma HiAI.

La infancia de la IA

Estamos en la infancia de la IA. El primer acelerador integrado en un smartphone para algoritmos como Deep Learning fue el Kirin 970 de Huawei, y data de poco más de un año. Los algoritmos implicados en aplicaciones de IA requieren de un elevado grado de paralelismo para procesar grandes cantidades de datos en poco tiempo. Y los procesadores tradicionales no son óptimos para ello. Los procesadores gráficos, en teoría, son mucho mejores, pero las GPU de los smartphones no están optimizadas para procesamiento con datos de propósito general.

Los aceleradores para IA o NPU (neural processing units) sí están optimizados para procesamiento en paralelo de datos de propósito general empleados en los algoritmos de IA. En una app que emplea técnicas para implementar la inteligencia artificial como Deep Learning, es preciso resolver modelos estadísticos complejos en muy poco tiempo para decidir, por ejemplo, si una foto es de un gato o de una flor.

Aplicaciones de IA

Básicamente, las apps de IA en los smartphones se basan en cálculos de modelos estadísticos de Deep Learning o en cálculos de árboles de decisión programados bajo los auspicios de API como TensorFlow de Google. Estos modelos habrían sido entrenados previamente en centros de datos usando ingentes cantidades de inputs conocidos para calcular los parámetros del modelo de DL o el árbol de decisiones que permitan clasificar de un modo “inteligente” aquellos elementos que los usuarios usen en una app de IA.

Por ejemplo, en los Huawei Mate 20 y 20 Pro, la app de vídeo reconoce a un sujeto en la escena y permite recrear efectos digitales sobre la persona y el fondo. Para ello, tiene que identificar a la persona o las personas de la escena, lo cual se hace mediante un análisis de cada "frame", encontrando los píxeles que forman parte del sujeto y diferenciándolos de los del fondo.

Los Mate 20 llevan un nuevo procesador, el Kirin 980, con una NPU doble que permite procesar el doble de datos si se compara con el Kirin 970. En una aplicación de imagen, esto permite repartir el trabajo entre las dos NPU. Básicamente las aplicaciones de IA que encontramos hoy en día se centran en el procesamiento "inteligente" de imágenes, identificando elementos tales como personas, profundidades, animales y otros objetos.

Identificar, automatizar y ordenar

La IA que se maneja en la actualidad es la llamada "IA débil". Es decir, no es una inteligencia que pueda equipararse a la humana. No puede "inventar" ni "crear", pero sí puede encontrar inferencias estadísticas o procesar datos de un modo "relacional". Por ejemplo, una IA que identifique un perro en una imagen, realmente no "sabe" que es un perro, pero el análisis de los píxeles que componen la imagen, una vez pasado por el modelo de red neuronal "entrenado" para identificar patrones, permite a una app de IA llegar a la conclusión de que es muy probable que lo que se está viendo sea un perro y no un gato o una planta.

La traducción de idiomas es otro caso en el que se usa la identificación de lo que se ve en una imagen o lo que capta la cámara del terminal para detectar las palabras que queremos traducir. O el reconocimiento de voz para "escuchar" lo que un interlocutor dice en un idioma dado y traducirlo a otro.

En la cámara de fotos, la identificación de las escenas permite automatizar la aplicación de ciertos parámetros específicos de la escena que se haya identificado. En la galería de imágenes, encontramos una clasificación exhaustiva de las imágenes en los Mate 20, una vez que se ha identificado el motivo principal de la foto. Incluso en los vídeos, los Mate 20 analizan la secuencia grabada en busca de momentos representativos para hacer, automáticamente, una mini edición.

En la parte de identificación biométrica, el reconocimiento facial también se basa en técnicas de IA. El análisis del rostro permite al algoritmo de reconocimiento calcular la probabilidad de que la cara que está "viendo" sea la nuestra, aunque nos dejemos barba, llevemos gorra o incluso gafas.

Otras apps que ya usan la IA son las que identifican canciones, por ejemplo. Shazam es un buen ejemplo de ello, reconociendo la canción que está sonando en pocos segundos. Es una app que usa la IA de la nube en vez de la IA local. En una aplicación como esta, de todos modos, sería complicado realizar la identificación de un modo local únicamente: se necesita acceder a una base de datos de canciones que superaría en tamaño las posibilidades de los erm. Lo que sí se podría hacer es identificar el tipo de música si Shazam incluyese un modelo de DL entrenado para ello.

Los asistentes de voz son otro tipo de aplicación que ya usa técnicas de IA para operar. El reconocimiento de voz y de contexto son algunos de los elementos que hacen posible que podamos "hablar" con nuestros dispositivos móviles de un modo más o menos natural.

Lo que vendrá

La aplicación de la IA en los teléfonos móviles, en cualquier caso, está aún en una fase muy inicial. Los desarrolladores de apps no están aún acostumbrados a programar sus aplicaciones para que hagan uso de aceleradores tales como las NPU. Pero firmas como Google, Facebook o Amazon, ya cuentan con plataformas de desarrollo de IA que facilitan la creación de modelos de Deep Learning a la medida de las necesidades que tenga una app concreta.

Lo que vendrá en el futuro es incierto, pero, puestos a hacer un ejercicio de extrapolación, podemos pensar en un futuro en el que sea posible que los propios usuarios sean los que elijan sus propios criterios para el entrenamiento de los modelos de IA. Es decir, que usen sus datos para entrenar modelos "precocinados" de Deep Learning, sin ir más lejos.

Los usuarios son generadores de datos: fotos, correos, contactos, "me gusta" en redes sociales, conversaciones en redes de mensajería, actividad física o de sueño, tiempo que pasan trabajando, etcétera. El reto es el de tener a nuestra disposición los datos de múltiples fuentes en un formato apto para ser usado en el entrenamiento de un modelo de red neuronal.

También es de esperar que se puedan tener inferencias obtenidas a partir del cruce de datos de diferentes procedencias. Así, sería deseable que se pudiera establecer una correlación entre la temperatura del dormitorio medida con un termostato, y la calidad del sueño medida con un cuantificador de actividad física, por ejemplo.

También sería interesante ser capaces de capturar datos de forma automática en segundo plano. Por ejemplo, al hacer la compra, sería útil que tras pagar se incluyeran los elementos de la compra en un registro, de modo que se contabilizaran los alimentos que compramos. Los mismo en un restaurante donde, tras pagar la cuenta, se nos enviase el contenido preciso del menú elegido. Con el tiempo, estos datos permitirán identificar pautas alimenticias, y mejor aún si se ponen en contexto junto con los datos de actividad o sueño.

En busca del contexto

Uno de los retos de la IA es, precisamente, identificar el contexto en el que estamos para anticiparse a nuestras peticiones o para automatizar acciones. El reto es importante, y no siempre se puede afrontar empleando métodos como Deep Learning. El sistema operativo es otro componente esencial para que los móviles se comporten de un modo inteligente.

EMUI, la capa de personalización de Huawei, es otro de los componentes que hacen que los terminales Huawei se diferencien de otras propuestas. La gestión de la batería, la biometría o la integración de servicios cloud son parte de las atribuciones de una capa de personalización. Y también hay una tendencia a hacer que EMUI funcione como un "sexto sentido". HiVision permite identificar lo que la cámara del móvil ve en tiempo real.

Otras apps como Shazam permiten "oír" y otras como Google Maps permiten saber dónde estamos. En el futuro podría ser posible que el sistema operativo fuese capaz de gestionar los datos capturados por estas apps y otras, para ofrecer una visión unificada, ordenada e interactiva del contexto. Así, podría darse el caso de estar hablando de películas, por ejemplo, y que el smartphone estuviera buscando en segundo plano información sobre actores, fechas y otros datos para tenerlos a mano en caso de necesidad.

Paso a paso

Estos progresos se hacen de modo progresivo. Un móvil que esté todo el tiempo "pendiente" de lo que sucede alrededor consumiría su batería en pocas horas. Pero los aceleradores de IA, por ejemplo, permiten que los cálculos involucrados en el reconocimiento de imágenes o de voz, o de la posición geográfica, usen menos energía. Ya es posible tener medidores de pulso cardíaco con autonomías de varios días, al tiempo que miden las pulsaciones cada pocos segundos y durante todo el día. Puede que en el futuro sea posible que los dispositivos estén "escuchando" y "viendo" todo el rato sin que ello suponga un consumo de energía excesivo.

No es probable que veamos un IA "fuerte" en breve, pero la IA "débil" se posiciona como una herramienta excelente para ayudarnos a ordenar, clasificar e identificar todos los datos a los que estamos expuestos cotidianamente. Elementos como las NPU y el software están evolucionando a buen ritmo para ofrecer este tipo de funcionalidades.

Las plataformas para el desarrollo de aplicaciones y tecnologías de IA están en el punto de mira de empresas como Huawei, con HiAI como máximo exponente de este interés. El software va más lento que el hardware, pero los progresos se van afianzando paulatinamente, y los usuarios estamos disfrutando ya de sus logros.

Fotos | iStock y Huawei

Ver todos los comentarios en https://www.xataka.com

VER 1 Comentario

Portada de Xataka