Xataka
Contenidos contratados por la marca que se menciona.

+info

La IA en smartphones va camino de convertirse en estándar. Lejos de ser esa nueva big thing, la realidad es que transformar al gadget rey en una máquina mucho más intuitiva y audaz facilita (y mucho) nuestro día a día. ¿Y cuál será ese uso tan positivo?

Ya conocemos los beneficios asociados a las cámaras móviles, analizando el contexto y ayudando a generar la foto perfecta mediante el aprovechamiento máximo de los parámetros mecánicos y del software del equipo. También sabemos que pueden ayudar a traducir idiomas al vuelo.

De hecho, son más rápidos traduciendo sin contexto que mediante métodos de aprendizaje. Aprenden de las rutinas de uso del usuario para optimizar el consumo de batería y rendimiento de ciertas apps, mejoran la seguridad mediante software biométrico y son fieles asistentes para nuestras necesidades más básicas —encontrar restaurantes, fechas o feedback de productos—. Ahí es nada. La pregunta es, ¿por qué ahora sí y antes no?

De la importancia de una GPU…

Para quien no sepa de qué estamos hablando en el titular del artículo, aquí va un resumen rápido. Una GPU es una unidad de procesamiento gráfico, un espacio dedicado que coprocesa información, un componente similar a la CPU pero dedicado a unas rutinas y funciones específicas. Su principal marco de acción es aligerar la carga de ciertos procesos, para agilizar en paralelo el rendimiento.

¿Ejemplos? Animaciones y transiciones, carga de filtros en editores de fotos, lectura de órdenes respecto al motor de iluminación y procesamiento de vértices o píxeles en texturas.

Las GPU son un complemento bastante moderno dentro de la informática convencional. El chipset daba de sí lo que daba, y en imágenes sin renderizar no se podían cargar demasiados sprites, demasiado dibujado en un mapa, etc. Hasta finales de los 70, cuando la miniaturización propuso alternativas. Había que inventar algo, y entraron las consolas en juego. El coprocesador ANTIC usado en el Atari 800 se sacó de la manga esta función. Las gráficas iSBX 275 de Intel, del 83, usaban controlador compartido.

Tampoco son iguales todas las GPU. Podemos encontrar dedicadas, con su RAM y ventilación independiente, en los flamantes equipos gaming; las que usan gráficos integrados, como muchas unidades de procesamiento en ordenadores convencionales; o modelos híbridos, que comparten memoria del sistema.

Hace unos años se hizo popular un nuevo sistema de arquitectura interna, big.LITTLE. La parte “big” se componía de procesadores con mayor velocidad de reloj y mayor consumo energético. La parte “little” aportaba un empujón extra sólo cuando el equipo lo precisaba y se mantenía en reposo el resto del tiempo, para ahorrar batería.

Esta tecnología partía del algoritmo random forest y su función era unificar un tronco de árboles de decisiones para definir los criterios con los que se repartirá la carga computacional.

… Al valor de un chip IA

Que un smartphone haya puesto corbata y traje de gala a su chipset con una CPU multinúcleo y GPU dedicada ya no es bastante. No en un mundo-IoT donde un procesador de 14 nanómetros puede impulsar un suite de Realidad Aumentada.

Fabricantes como LG y su G7 han empujado la exigencia porque, en suma, los usuarios somos más exigentes con nuestros equipos: no sabemos qué significa, pero queremos los resultados de los lenguajes Direct3D en el móvil, HLSL, GLSL, etcétera.

Queremos un escáner biométrico —desbloqueo facial—, que requiere una lectura e interpretación de datos muy ágil. Y queremos ese asistente libre en todo momento que coteje datos sobre dónde estamos para arrojar información contextual, que no traduzca «buscar restaurantes cerca» en un listado de locales, sino que traduzca «tengo hambre» por «estos son los bares mejores votados por tu zona».

Es un ejemplo sencillo. Pero hay más.

la GPU tiene cosas mejores que hacer en lo que a gráficos se refiere. Los fabricantes han traducido esta necesidad en un componente de hardware exclusivo, de la misma forma que las placas madre incorporaron una tarjeta de audio y no un simple componente integrado, mejorando el audio a través de menos distorsión, ruido de señal y sensibilidad dinámica.

Aprendiendo sobre la marcha

Una de las escalas de investigación tecnológica más importantes de los últimos años ponía de relieve el ‘Cloud IA’, aquellos procesos que no requieren de un ordenador procesando datos, sino donde la máquina analiza el contexto y no se comunica mediante la fórmula pregunta-respuesta, sino aprendiendo de forma dinámica.

El deep learning es mucho más que dos palabras con sonoridad atractiva, son años de perfeccionar algoritmia multicapa. Y ha facilitado nuevos usos de la IA, a través del ‘cloud IA’ u ‘On-Device AI’.

El smartphone ya no lanza una duda y un servidor remoto acude a la llamada. La inteligencia está “a bordo” del dispositivo, asistiendo al dueño del teléfono con una mejor interación. Teléfonos como el nuevo G7 de LG no son herméticos. Cada hábito deja una impronta, son permeables a las rutinas de uso y convierten esa información en ventaja.

Precisamente, el LG G7 cuenta con un procesador Snapdragon 845, 4 GB LPDDR4 de memoria RAM y 64 GB de memoria interna, más la gráfica Adreno 630 y el chip dedicado a IA. Cifras propias de un portátil en uno de los teléfonos más completos del mercado.

Vodafone ofrece además una promoción para hacerse con él desde ya mismo: la posibilidad de ahorrarse un buen dinero vendiendo el móvil viejo —hasta 200 euros de ahorro—, llevarse un bono de 10GB o conseguir una camiseta oficial de La Roja, totalmente gratis y con el nombre grabado.

Además existe una posibilidad extra: pagarlo a plazos por 0€ en el pago inicial y 23,50 euros al mes durante 24 meses; o mediante un pago único, por 564,01 euros. Una oportunidad extra de probar el rendimiento del machine learning y deep learning aplicado a la tecnología móvil.

Y no van a dejar de aprender

Generalmente, para enseñar a una IA, hay que darle ejemplos previos. «Para que el sistema sepa que esto es un perro, le enseñamos fotos de perros. Si dice que esto es un perro pero en realidad no, tiene que entender que se ha equivocado, decía Jeremiah Harmsen, líder del Departamento de Investigación en IA de Google en Europa.

Como decíamos, este aprendizaje implica aprendizaje automático, capacidad de asumir y encapsular información más allá de la programación original, y aprendizaje profundo, un tipo de aprendizaje automático que imita el comportamiento de las redes neuronales, con muchas capas de computación operando de forma horizontal.

La diferencia entre una CPU clásica, GPU y procesador de señal está en que los chips IA, o NPU (unidad de procesamiento neuronal), cuenten con un modelo más o menos estandarizado. Las NN-API usan bibliotecas como Tensorflow Lite, y todas siguen el mismo modelo de interacción con el hardware, ya que son soluciones creadas para fines muy específicos.

Y gracias a estas herramientas comunes estamos logrando smartphones con una inteligencia cada vez no mayor, sino más eficiente. Como sucede con nuestro cerebro, esta no es una suma que implique mayor cantidad de neuronas, sino cómo hacemos uso de ellas.

Imágenes / LG y Pixabay