Google pone al alcance de todos la inteligencia artificial responsable de las magníficas fotos en modo retrato del Pixel 2

Google dio un golpe en la mesa cuando demostró a todo el mundo que la doble cámara no era necesaria, y obtener resultados destacables en modo retrato a través del ahora famoso efecto bokeh en los smartphones era posible por software. El Pixel 2, en vez de cámara doble, llegó con inteligencia artificial y esa, a día de hoy es la mejor y más importante herramienta del smartphone de Google, ¿por qué? Porque se basa en inteligencia artificial.

Pues ahora, esa herramienta diseñada por Google, y que era exclusiva para sus dispositivos, se hace open-source, lo que significa que cualquier persona o compañía podrá usarla o bien, meter mano para perfeccionarla o crear nuevos desarrollos.

DeepLab-v3+

Google confirmó que dicha herramienta es conocida como el código DeepLab-v3+, se basa en una plataforma de segmentación de imágenes creada con redes neuronales convolucionales (CNN), que consisten en un método de machine learning capaz de analizar los datos de una imagen con resultados destacables.

DeepLab-v3+ analiza los datos visuales de una imagen para así poder determinar que objetos están presentes y así separarlos en capas. Una vez identificados, el siguiente paso es dividir los elementos de primer plano de los elementos del fondo. Una tarea que es relativamente sencilla cuando se tienen dos sensores de imagen, pero cuando sólo se tiene uno es cuando la inteligencia artificial hace el trabajo.

Lo impresionante de todo esto es que esa tarea de análisis y separación se hace en sólo unos segundos, por lo que los resultados son inmediatos. Y esto es precisamente lo que hace que la cámara de los Pixel 2 sea así de buena, ya que son capaces de difuminar el fondo y dejar al sujeto en primer plano con un aspecto casi profesional.

Liang-Chieh Chen y Yukun Zhu, ingenieros de software en Google, explican que las herramientas basadas en deep learning han mejorado de forma importante en los últimos años, lo que hace que, por ejemplo, esta segmentación de imágenes tenga unos niveles de precisión imposibles de imaginar hace unos años.

Por lo anterior, Google está abriendo esta herramienta a todos, ya que esperan que más personas se interesen en este tipo de tareas y lo lleven a niveles de mejora significativos. Es así como a partir de ahora mismo, cualquier desarrollador podrá hacer uso de la herramienta de Google e incorporarla en sus proyectos, aplicaciones o dispositivos.

Más información | Google Research
En Xataka | El modo retrato a prueba: iPhone X, Galaxy Note 8, Huawei Mate 10 y Google Pixel 2 XL frente a Lupe, fotógrafa profesional

Ver todos los comentarios en https://www.xataka.com

VER 19 Comentarios

Portada de Xataka