Detectando movimiento con un radar diminuto: Google explica cómo funciona Soli en un teléfono móvil

Detectando movimiento con un radar diminuto: Google explica cómo funciona Soli en un teléfono móvil
7 comentarios Facebook Twitter Flipboard E-mail

En 2017 llegaba Face ID, la tecnología de Apple que asentó las bases de los reconocimientos faciales en móvil. Ya hubo propuestas anteriores para lograr este propósito, pero nunca se llegó (ni se ha llegado) al punto tecnológico a nivel de seguridad y velocidad en el que se encuentra Apple aquí. La compañía que más cerca ha logrado quedarse ha sido Google, a través de Project Soli.

Este es un proyecto de mini-radares en el Google lleva trabajando desde hace cerca de cinco años y que se ha acabado materializando en el Pixel 4, el móvil gama alta de Google. La compañía ha explicado "cómo percibe" este radar, acercándonos más que nunca al funcionamiento del mismo.

Un vistazo a…
10 APLICACIONES de GOOGLE que PODRÍAN HABER TRIUNFADO

Qué ve realmente Soli, el radar de Google

Image 2020 03 13 15 07 23

Los radares de Soli se utilizan tanto para el reconocimiento facial de Google como para su tecnología Motion Sense, una solución que permite interactuar con el teléfono sin que haya ningún tipo de contacto físico con el mismo. Se trata de una tecnología similar a la ya vista en móviles como el LG G8s, que también permite este tipo de gestos "por aire".

En concreto, Motion Sense permite detectar cuándo estamos cerca del teléfono, reducir el volumen de una alarma mediante gestos por aire, apagar la pantalla cuando no estamos cerca del dispositivo y demás. Pero, ¿cuáles son los principios básicos de detección de este radar? Como acostumbramos al hablar de Google, el aprendizaje automático y los algoritmos de procesamiento de señales son la respuesta.

Google aplica los principios básicos de un radar para Soli: se transmiten ondas de radio con el fin de medir, en este caso, la posición de los objetos (la mano del usuario)

Google explica que la función básica de su radar es detectar y medir las propiedades de los objetos en función de sus interacciones con las ondas de radio. No deja de ser algo similar a cómo actúa cualquier otro radar: un transmisor de ondas de radio que se redirigen a objetos para que reflejen su energía en el receptor de dicho radar. No obstante, uno de los retos de los radares clásicos, según Google, es que carecen de la sensibilidad y capacidad de detección de movimiento que se requieren en un pequeño dispositivo de consumo.

Image 2020 03 13 15 09 39
Los radares de Soli se integran en el marco superior del Google Pixel 4 y su variante XL.

Para solucionar estas limitaciones, Google ha desarrollado Soli como un radar en miniatura, con un algoritmo de detección basado en el movimiento, más que en la posición que ocupan en el espacio los objetos. Cuenta Google que el tamaño de Soli es de apenas 5 mm x 6,5 mm x 0,873 mm, logrando introducirlo en el marco superior de su Pixel 4.

La precisión de Soli es alta. Es capaz de distinguir distintos patrones de movimiento, gracias a que los datos del radar se procesan mediante la red neuronal de Google

Siendo algo más técnicos, lo que hace Soli es procesar los cambios temporales en las señales que recibe. Trasmite una señal de frecuencia modulada de 60 GHz y, a través de esta, puede distinguir objetos que se mueven con diferentes patrones de movimiento. Es llamativo conocer que Soli es capaz de conocer los distintos patrones de movimiento de un objeto. Según la velocidad o cercanía/lejanía de los objetos y personas, la energía se distribuye de forma distinta, por lo que el radar puede tener constancia de ello con más precisión.

Image 2020 03 13 15 09 39

De forma gráfica, aquí tenemos un ejemplo de cómo Soli puede discernir entre una mano acercándose al móvil, cuando está a punto de cogerlo y cuándo empieza a interactuar con él. De este modo, la pantalla "sabe" cuándo tiene que encenderse, segundos antes de que el usuario coja el móvil para desbloquearlo.

Todo esto se hace posible, además de por el propio sistema de radar, gracias a los algoritmos de aprendizaje automático de Google, que filtra y aumenta la propia señal del radar y transforma las señales que recibe en órdenes que ha de seguir el teléfono. Hasta tal detalle se trabaja con el algoritmo, que se ha pensado incluso en la pequeña vibración que se produce cuando el móvil está reproduciendo música, la cual puede interferir en cómo capta el radar los movimientos.

Google cuenta que este modelo se ha perfeccionado entrenando una red neuronal con miles de voluntarios, que han ido registrando sus gestos y movimientos cerca del dispositivo, para que el algoritmo pueda minimizar el impacto que tienen las diferencias individuales de cada persona, la cual tiene sus propios gestos.

Vía | Google

Comentarios cerrados
Inicio