Quiero sacar las fotos como yo quiero, pero la cámara de mi móvil es tan inteligente que no me deja

Captura De Pantalla 2022 03 21 A Las 12 21 35
20 comentarios Facebook Twitter Flipboard E-mail

La cámara de mi móvil es demasiado inteligente. Cuando saco una foto, el resultado no es exactamente el que yo buscaba. Es mejor. O quizás no.

Nuestros smartphones han avanzado en muchos frentes, pero es evidente que los sensores y sobre todo la fotografía computacional han logrado resultados excepcionales que no obstante pueden plantear un problema: no reflejar la realidad tal y como nosotros queríamos que se reflejase.

Para nuestro móvil "cada foto es un problema que resolver"

Grergor Gentert, fotógrafo de arte, usa su iPhone de última hornada para sacar todo tipo de fotos, pero se ha encontrado con que los resultados están empezando a no ser lo que esperaba. Este usuario contaba junto a otros fotógrafos avanzados su experiencia con las cámaras del iPhone en The NewYoker, y todos coincidían en que algo extraño.

"He intentado sacar fotos con el iPhone cuando la luz se vuelve más azulada al final del día, pero el iPhone intenta corregir ese tipo de cosas". Ciertos tonos que existen en el cielo son editados y procesados para acabar siendo eliminados porque el tono, por lo que sea, no es aceptable para los algoritmos de fotografía computacional de Apple. Como decía Gentert,

"El iPhone ve las cosas que estoy intentando fotografiar como un problema a resolver".

Es una buena forma de entender cómo son las cámaras de los iPhones y de cualquier smartphone actual. En su obsesión por ofrecer al usuario la mejor experiencia posible, esas cámaras han acabado realizando una serie de tareas de postprocesado que están dirigidas a una sola cosa: a que no te tengas que preocupar de nada más que de disparar.

Es la expresión última de esa gama de cámaras de "apuntar y disparar" (point&shoot) compactas que triunfaban antes de la llegada de los smartphones porque ofrecían precisamente una experiencia fotográfica perfecta para quienes no se querían complicar la vida.

Esa filosofía ha sido llevada a los extremos en los smartphones actuales. Los fabricantes integran a menudo sensores con resoluciones mastodónticas que luego sacan fotos a menor resolución gracias al pixel binning.

Tanto en los iPhones como en los móviles Android ocurre que al elegir la relación de aspecto 16:9 para las fotos lo que hace el móvil en realidad es sacar la foto en 4:3 como siempre y luego recortarla directamente sin decirte nada. Y si la quieres en 1:1, lo mismo: la foto se saca en 4:3 y luego se recorta para que el resultado sea el deseado.

Por no hablar de la magia de los modos HDR con las que es posible capturar los claros y oscuros en una misma foto con una precisión espectacular o los métodos que por ejemplo usaba Google para hacer zoom al combinar varias fotos en RAW para ofrecer el resultado final.

Los Pixel de Google fueron pioneros en esto: con los Pixel 4 y 4 XL vimos un avance importante en fotografía computacional que por ejemplo permitió acceder al modo Live HDR+ o a los llamativos modos de astrofotografía. La cosa ha seguido con los Pixel 6 y su borrador mágico o su modo movimiento, y esa aplicación de los modos retratos y el bokeh artificial que tanto nos gusta ha conquistado tanto las fotos normales como incluso los vídeos en "modo cine" que ya ofrecen tanto los nuevos iPhone como otros móviles del mercado.

La cosa está yendo a límites que rozan ya el absurdo, porque los fabricantes están decidiendo que las mejoras de rendimiento en los chips móviles se centren en esos algoritmos de inteligencia artificial y aprendizaje profundo con los que se hace esa "magia" de nuestras cámaras móviles. Los Google Tensor y los Marisilicon X de OPPO están diseñados para ello.

En Apple también lo tienen claro: hace un par de años compraron la empresa Spectral Edge precisamente para reforzar su fotografía computacional. La empresa aplica desde hace años las ventajas del aprendizaje automático para resolver en tiempo real no solo los ajustes de balance de blancos, colorímetría o exposición, sino para afinar la luz o reconocer el rostro de las personas que fotografiamos.

Computational

Cuando sacamos una foto en nuestros móviles, no estamos sacando una foto, sino varias que se combinan para lograr el resultado final. Apple tiene su tecnología Deep Fusion, y Google —como otros fabricantes de móviles Android— hace lo mismo desde hace tiempo. La técnica, desde luego, funciona, y hace que seamos capaces de captar detalles que las cámaras del pasado (fueran móviles o no) no lograban captar.

Ese algoritmo me está robando mi foto

El problema es que en ese procesado se pueden perder cosas que sí queríamos reflejar y que los algoritmos "nos roban". Ciertos tonos del cielo, ciertos detalles de un objeto, por ejemplo. 

Captura De Pantalla 2022 03 21 A Las 12 35 56
Las tomas con el teleobjetivo del iPhone tienen problemas con falta de luz: el ruido aparece por doquier en esta toma RAW al atardecer, pero a la derecha se produce la magia. Al menos en algunos sitios, porque en otros (como en los contornos y detalle de la palmera) se pierde detalle a costa de "suavizar" la imagen y hacer desaparecer el ruido. Fuente: Halide.

Es, parece, una opción adecuada para quienes buscan la toma "no adulterada" de las fotos que sacan nuestros móviles. Los fabricantes Android también lo permiten en algunos móviles, y desde luego es una forma de evitar el uso de postprocesado.

A veces, no obstante, incluso esas tomas RAW también están adulteradas, y una queja común entre quienes hacen uso del formato ProRaw de Apple es que "lava" la imagen para quitar ruido. Así pues, puede que ni siquiera con los formatos RAW nativos de los fabricantes baste, y ahí afortunadamente tenemos aplicaciones de terceros para obtener el RAW puro.

Hacerlo tiene sus consecuencias porque los sensores de nuestros móviles llegan hasta donde llegan: es ahí donde se nota la potencia de estos algoritmos, y donde para muchos el fin justifica los medios.

Los fabricantes lo saben, y cada uno tiene su propia interpretación de la realidad a la hora de sacar fotos. Lo vemos en la forma en la que se reflejan los tonos de la piel, por ejemplo: Google pulió mucho el tratamiento de las pieles de las personas negras en los Pixel 6.

Es tan solo una muestra de esa forma de entender la fotografía que tiene cada fabricante. Eso se nota en tomas más o menos brillantes, con ciertos tonos predominantes o con una particular saturación que quizás no tenga mucho que ver con la escena real pero que desde luego hace que la foto parezca más viva y alegre.

Afortunadamente los usuarios siempre podemos editar esa foto para ajustarla a lo que queríamos, pero lo cierto es que las cámaras se han vuelto especialmente inteligentes. No parece mala idea a la vista de los resultados —sacamos más y mejores fotos y vídeos que nunca—, pero es importante tenerlo en cuenta para saber que esa imagen que hemos capturado quizás no es un reflejo exacto de lo que queríamos capturar.

Comentarios cerrados
Inicio