Google tiene un plan para mejorar el modo retrato de Meet: usar la GPU de tu PC

Google tiene un plan para mejorar el modo retrato de Meet: usar la GPU de tu PC
3 comentarios Facebook Twitter Flipboard E-mail

Si te reunes frecuentemente en Google Meet, app que vuelve a sus límites pre-pandemia, seguramente conozcas los distintos efectos que permite. Entre ellos, usar modo retrato en tiempo real o aislarte en un fondo artificial, como si estuvieras sobre un croma. Google sabe sacarle partido a su IA para lograr este tipo de funciones, pero no solo de software va la cosa.

Con la última versión de Google Meet, Google quiere exprimir más la potencia de la GPU para mejorar el resultado. Esto se logra combinando la propia inteligencia artificial de Google con WebGL, un estándar que permite al navegador renderizar gráficos.

Tu GPU , al servicio de Google Meet

Google quiere mayor calidad en la segmentación de imagen en Meet, y para ello se vale de la GPU de los PCs. Con la última actualización de Meet, hay cambios relevantes en el modelo. A partir de ahora, se implementa un nuevo modelo de segmentación basado en imágenes de entrada de alta resolución (HD), en lugar de imágenes de baja resolución como se empleaba anteriormente.

Para no consumir excesivos recursos, se usan los núcleos de bajo rendimiento de la GPU

Para no consumir excesivos recursos de tu PC, Meet utilizará los núcleos de rendimiento bajo, ideales para procesar modelos convolucionales de alta resolución. Hasta ahora, se estaba usando la CPU del PC en combinación con los modelos de inteligencia artificial de Google en tiempo real, pero este elemento estaba más limitado para los cálculos de segmentación de gráficos en HD.

Según explica Google, no es tan sencillo hacer que la GPU aproveche su rendimiento para mejorar la segmentación de imagen. Comenta que, actualmente, la GPU solo puede alcanzar un 25% del rendimiento bruto que es capaz de obtener OpenGL. Esto se debe a que WebGL (el estándar que permite a las web renderizar con tu GPU), se diseñó para la representación bruta de imágenes, no para las grandes cargas de trabajo que genera un modelo de aprendizaje automático.

La clave para superar esta limitación recibe el nombre de MRT (Multiple Render Tags), una función de las actuales GPU que permite reducir el ancho de banda que necesita la red neuronal de Google, para así procesar (según promete Google) con hasta un 90% de la potencia nativa de OpenGL.

Comentarios cerrados
Inicio