Un especial ofrecido por

EL COLOR ERA ESTO

Desde los primeros compases tecnológicos, el ser humano ha deseado imitar el comportamiento del ojo a través de distintos sistemas de grabación, capturar la realidad tal y como la vemos. Cualquier fotografía es un simulacro, un recuerdo pixelado de la realidad. Y eso que vemos el mundo a 70 megapíxeles de resolución. 

Estudiar el ojo humano nos ha llevado a comprender la teoría del color, a analizar la luz y sus particularidades físicas. Y de aquellas partículas elementales, los fotones, hemos llegado a estándares de altísima resolución, hemos aprendido a capturar y manipular la imagen como nunca antes. En apenas un siglo de historia. 

Pero este reto sigue vigente. Aún no hemos sido capaces de capturar la realidad tal y como es. Sí, es obvio que las diferentes cámaras y pantallas evolucionan cada día.

Una pugna que se ha recrudecido: todos los fabricantes quieren conquistar y atesorar el grial del realismo absoluto. Fabricantes como Samsung están invirtiendo en I+D para desarrollar tecnologías capaces de llevar al salón esa fidelidad anhelada a partir de contenidos multimedia digitales.




Del tubo catódico al 4K: así ha viajado el color por nuestra televisión

Breve historia de la tele

La televisión es uno de los grandes inventos del siglo XX. Llevar al salón aquello que estaba sucediendo en la otra parte del mundo era casi un truco de magia en un tiempo en el que la tecnología apenas tenía presencia en nuestras vidas. La primera emisión de TV tuvo lugar en 1936 de la mano de la BBC y llegó a unos escasos 20.000 aparatos. Por supuesto, en blanco y negro.

La primera transmisión en color no llegaría hasta 1951 de la mano de la cadena americana CBS, empleando lo aprendido de la RCA y su tubo de tres cañones electrónicos. Suena como el armamento de Iron Man, pero no era sino un tubo de rayos catódicos, el CRT de 625 líneas de toda la vida. Hasta 1988 no llegaría la primera TV plana LCD, un modelo de 14’’ y resolución estándar. Lo que entendemos por alta definición (HD) aún tardaría unos años más, a finales de los 90 y principios del 2000, dando pie a mayores tamaños de panel gracias a tecnologías como el plasma.


Pero fue la tecnología LCD la que se llevó el gato al agua gracias a los mejores procesos productivos, precios más competitivos, mayores resoluciones y un consumo energético mucho más eficaz. Para 2007 ya se vendían más teles LCD que de tubo y de plasma. Con ‘Avatar’ (James Cameron, 2009) llegaría la fiebre del 3D, originando la siguiente revolución de la inmersión cinematográfica —y televisiva—. Y ya en 2012 empezarían a comercializarse las teles 4K, tomando el relevo del no demasiado exitoso 3D.

Entre tanto, la tecnología smart se abría camino: nuestra TV ya no era un receptor, sino un generador de contenidos. Cambiamos el cable de antena por la conexión WiFi. Y ha sido a partir de esta explosión de contenidos mediante streaming cuando unas nuevas siglas han entrado en escena: HDR.

El HDR imita nuestra forma de ver el mundo: el ojo humano es dinámico, se abre y cierra para adecuarse a los cambios de luz, se adapta y capta más o menos detalle según observa zonas con mejor o peor iluminación. Si nuestro iris siempre tuviese el mismo índice de apertura, no podríamos captar todo el margen dinámico de las escenas: la luz nos deslumbraría y la oscuridad no nos permitiría observar distintos matices de negro.


La evolución del color en las pantallas

   
       
               
1933            

Blanco y negro

           
       
       
               
1967            

Primera emisión en color

           
       
       
               
1980            

Estándar de color

           
       
       
               
1990            

Emisión en HD

           
       
       
               
1997            

Full HD

           
           
       
               
2008            

4K

           
   

Los hitos tecnológicos

Decíamos que, en esa carrera por capturar la realidad, aún queda un trecho que recorrer. La realidad es perfecta tal y como está: contiene información no limitada por ninguna característica técnica más allá de la que nuestro ojo sea capaz de percibir. 

Precisamente es aquí donde conviene incidir: nuestro ojo, al igual que nuestro oído, no logra ver todas las longitudes de onda: la luz del sol contiene un continuo de ondas de diferentes longitudes, desde los 100 nm (nanómetros) hasta 1 mm (milímetro).

Solar Radiation Spectrum
Via: wikipedia

El ojo humano es capaz de ver un estrecho rango dentro del apartado de “luz visible”. ¿Y qué hay de los colores? Dependiendo de la composición de cada elemento y de la capacidad de absorción de su superficie, así vemos un color u otro, a través de un proceso de desintegración por el que parte de las longitudes de onda son absorbidas y parte son reflejadas. 

Las reflejadas llegan al ojo, atraviesan la pupila, el cristalino, el humor vítreo y llegan al fondo del ojo. Ahí son interpretadas por unas células llamadas conos, sensibles a las longitudes de onda del espectro visible, entre 380 nm y 780 nm aproximadamente. Los colores visibles van desde los asociados a longitudes de onda cortas (azules), hasta los de longitudes de onda largas (rojos).


partes del ojo

Estos conos son sensibles a tres rangos de longitudes de onda, correspondiendo con los tres colores cardinales: cortas (en la zona de los azules), medias (en la parte del verde) y largas (en la del rojo).

El resto de colores que percibimos son generados en el cerebro dependiendo de dos variables: intensidad y cantidad de azul, verde y rojo captado por los conos. Es decir, el nervio óptico actúa como un control de volumen y es nuestro cerebro el que ofrece la respuesta.


cone response
Vía: Wikipedia

¿Y las pantallas? Pues exactamente igual: los paneles están compuestos por millones de píxeles y cada píxel está compuesto por tres subpíxeles (rojo, verde y azul) a partir de los cuales se generan los colores en pantalla.

En sus orígenes, las cámaras solo podían ver e interpretar en blanco y negro, con una definición de 625 líneas. Por aquel entonces teníamos unas nociones muy básicas de lo que era la crominancia. Si alguien quería cine en color, tenía que andar coloreando el negativo, fotograma a fotograma.

A su manera, televisión y cine siempre han caminado sendas separadas pero en paralelo. Ha sido a partir de la digitalización cuando los sistemas de producción y distribución se han acelerado.


HDR

2Gestionar contenido audiovisual en formato digital es mucho más rápido y ágil desde el punto de vista logístico y tecnológico. Además, elimina de raíz la degradación de los soportes analógicos o las interferencias en las emisiones, a la vez que permite manejar los parámetros de imagen con una gran precisión.

El video digital

Pero este cambio de escenario supone un nuevo paradigma: los creativos deben producir contenido para alimentar cada nueva tecnología. Por tanto, nos encontramos con dos frentes: los fabricantes de televisores, por un lado, deben hacer frente a nuevos retos técnicos para lograr la escena más fiel posible. Por otro, los productores deben ofrecer material original a la máxima calidad posible.

En cuanto a los contenidos domésticos, las películas o series se masterizan digitalmente, ya sea a partir de cámaras 4K, 5K y hasta 8K compatibles con formatos HDR, o directamente exportando desde el máster del ordenador, donde se añaden los efectos especiales o se crean películas usando el propio ordenador de forma nativa.


Esos contenidos se consumen bien a través de soportes digitales como el Blu-Ray, archivos codificados como MPEG, MOV, H264, HEVC (H.265) o bien mediante plataformas de streaming como Netflix, HBO, Amazon Prime o Wuaki TV. Eso sin olvidar las plataformas que ofrecen las compañías proveedoras de servicios de comunicaciones convergentes, o de la TDT (Televisión Digital Terrestre).

resolution
Vía: Wikipedia

Cuando una TV recibe estos contenidos, el sistema los procesa y desmenuza para llevar al audio al sistema de sonido y el vídeo al sistema encargado de convertir cada fotograma (frame) en una imagen en la pantalla. De este proceso de conversión —opto-electrónicos en la cámara y electro-ópticos en la pantalla— depende la calidad resultante que recibiremos. Así que es crítico que la TV cuente no solo con un buen panel sino también con un buen procesador.

Los televisores se rigen por estándares de resolución. Y cada fotograma contendrá más o menos píxeles dependiendo de la resolución de las emisiones. En la actualidad, en la TDT conviven tanto contenidos con resolución SD (standard definition de 720 x 576 píxeles) que no llega ni tan siquiera a ser HD (1.280 x 720p), como contenidos a 4K (3.840 x 2.160p).












La primera emisión de TV tuvo lugar en 1936 de la mano de la BBC y llegó a unos escasos 20.000 aparatos.

 

Sigue descubriendo:

De qué elementos depende la calidad del color

Bits, nits, píxeles, espacios de color y metadatos

Los contenidos digitales se clasifican del siguiente modo: la cámara registra en su sensor las escenas de la realidad descomponiéndose en sus colores primarios, rojo, verde y azul (RGB). Dependiendo de la resolución del sensor, podremos tener más o menos píxeles, aunque para el caso que nos ocupa pensaremos que se trata de una cámara 4K. Este máster es almacenado en la memoria de la cámara.

El proceso de grabación y reproducción (haz click para verlo a pantalla completa)

Video digital

El sensor de la cámara podrá capturar más o menos detalles según la cantidad de luz que sea capaz de absorber y dependiendo del número de bits que pueda tratar, lo que está directamente relacionado con la gama colorimétrica. En equipamiento cinematográfico profesional, es frecuente trabajar con 16 bits para cada color primario. Aunque una vez se limpia, el máster pasa a quedarse con 14 bits, si bien los paneles domésticos suelen ser de 8 y 10 bits.

Los colores que captan estas cámaras entran dentro de lo que se denomina espacio de color. Dependiendo de su capacidad para capturar los colores con fidelidad, se definen espacios de color más o menos exigentes. No pueden atrapar tantos colores como nuestro ojo —identificamos unas 100 gradaciones distintas de cada color primario— pero, con cada nuevo progreso tecnológico, las cámaras son más precisas y aumentan sus capacidades.

En cuanto a los televisores, el espacio de color que manejan se conoce como Rec.709. Es un estándar muy limitado, una capacidad de renderizado poco precisa. Por esta razón, los fabricantes se están tomando muy en serio la gestión de color, aspirando hacia la renderización completa del espacio BT.2020 o también llamado Rec.2020. En la actualidad han logrado manejar un 70-80% de ese espacio.

color gamut
Vía: Wikipedia


Esta es una batalla vieja. El espacio de color BT.709 fue sustituido por el CIE 1931. El espacio BT.2020 ha sido hasta la fecha el espacio de color más completo. El ideal. Pero eso no significa que esta norma sea la obligatoria. Los proveedores y fabricantes usan con mayor frecuencia otro estándar, el DCI-P3, un formato creado por la industria del cine y centrado en la gama que reproducen los proyectores digitales de cine. Es mejor que el sRGB, pero tampoco es la séptima maravilla.

¿Y qué queremos decir con tanta sigla? Fácil: que unos formatos sustituyen a otros generación tras generación. Ninguno es perfecto y la meta es seguir mejorando. La información de color depende, entre otros factores, del número de bits con los que se codifique. Mayor espectro exige, sin más remedio, mayor cantidad de datos. No olvidemos que estamos codificando la realidad.

Ahora vamos con los metadatos: son parte de la información digital que se transmite con los contenidos de vídeo en HD. ¿Y para qué sirven? Tienen la misión de comunicarse con la tele, le dicen cómo tiene que renderizar los colores y el brillo. Como es lógico, si un televisor cuenta con un potente procesador, podrá manejar mayor cantidad de metadatos.

Y aún quedaría pendiente hablar de un elemento capital: los nits. Tradicionalmente, las pantallas contaban con unos niveles de brillo bastante modestos, entre 100 y 500 nits. Mientras, en el mundo real se manejan niveles de varias decenas de miles de nits. Un tubo fluorescente cuenta con unos 10.000 nits. Una bombilla incandescente de 100 vatios sube hasta los 18.000 nits. Si una TV mostrase la realidad tal cual, al ver una bombilla en una película tendríamos que deslumbrarnos.


La ecuación es simple: a más nits, mayor nivel de brillo. Esta medida determina la cantidad de candelas por metro cuadrado que emite cada pantalla. En el mercado actual, si nos fijamos en las últimas pantallas de los televisores QLED, se están manejando niveles de unos 2.000 nits, el más alto del mercado de los televisores de consumo.

RGB, los ingredientes del color

Los citados bits, espacio de color y metadatos entran dentro del repertorio de habilidades “electrónicas” de las televisiones. Pero solo son algunos de los ingredientes del plato. Es en la conversión electro-óptica donde una pantalla se la juega, en la traslación de bits en colores visibles y niveles de brillo fieles a los datos originales.

Y todo esto hay que conseguirlo a partir de tres colores básicos: rojo, verde y azul. Como mencionamos antes, esta forma de manejar el color se inspira en el funcionamiento del ojo humano y sus células captadoras de color (conos).

rgb
via: Wikipedia

Por el método de síntesis aditiva es posible generar el resto de los colores a partir de estos tres primarios. De la habilidad de la pantalla para manejar estos tres colores básicos con la máxima precisión depende su capacidad para mostrar contenidos de vídeo con la máxima calidad.

Y en esa síntesis conviven tanto los colores como la luz. La luz es el agua que hierve todos los ingredientes. Incide detrás del panel e ilumina los píxeles. Pero esta luz blanca, que en sus orígenes se generaba con tubos CCFL (tubos fluorescentes de cátodo frío), con el advenimiento del LED se genera a partir de leds azules con un filtro de fósforo.

Una vez que el panel LCD regula la intensidad de la luz y los filtros RGB ajustan el color, para conseguir un píxel blanco en pantalla es necesario dejar pasar el 100% de la luz blanca a través de las celdas de cristal líquido (LCD) que, a su vez, dejan pasar esa luz hacia los subpíxeles RGB, que no son sino filtros de color rojo verde y azul.

Las diferentes tonalidades se logran regulando la intensidad de cada subpíxel RGB, pero la intensidad de la retroiluminación es una variable que hay que manejar con cuidado. 


Otra forma de pintar los colores: los Quantum Dots

Imagina que eres un pintor que trata de plasmar sobre un lienzo lo que ve ante sí. La elección de las tonalidades es fundamental. Usarás colores básicos para luego ir mezclándolos y obtener así otros diferentes. De la calidad de esos colores primarios dependerá que los demás respondan a lo que el pintor busca.

Como ya hemos apuntado, las teles trabajan de forma similar, usando R(ed), G(reen) y B(lue), a partir de los cuales se consiguen los demás colores. Lo que logran los televisores QLED es poner a disposición del pintor —el televisor— colores básicos puros y precisos a partir de los cuales se sintetizan todos los demás, hasta un total de unos 1.000 millones posibles.

La clave de un buen color es tener unos excelentes componentes primarios RGB, lo más puros que se puedan obtener

Un color no es más que una onda con una determinada longitud que lo define. Algo así como afinar un instrumento: cuanto mejor está afinado, mejor sonarán sus notas naturales. El color rojo tiene una determinada longitud de onda (unos 650 nm), el verde (en torno a los 550 nm) otra y lo mismo sucede para el azul (unos 450 nm).

espectro luz
Vía: Wikipedia

La principal virtud de los “Quantum Dots” (QD) está en permitir manejar el color con una mayor precisión y, por consecuencia, un mayor realismo. Además, estos componentes nanotecnológicos cuentan con la siguiente propiedad: dependiendo del tamaño de las nanopartículas de las que están hechos, al recibir una fuente de luz absorben su energía y emiten una luz de gran uniformidad e intensidad.

¿Y el azul? El color azul se extrae de la retroiluminación LED. Conseguir un LED blanco no es fácil. Pero uno azul sí. De este modo, usando una fuente de luz azul LED, se tiene tanto la luz necesaria para dar energía a los Quantum Dots como para obtener directamente la componente azul de las tríadas RGB de colores primarios. Al suprimir los filtros en este proceso obtenemos mayor pureza en los colores y una luz más intensa.

infografia capas

Los QD pueden usarse de varias formas. Por ejemplo, Samsung los emplea utilizando un panel QD junto con la luz azul para obtener una fuente de luz roja, verde y azul (RGB). En este caso, se mantiene el panel LCD para regular el paso de dicha luz a través de los subpíxeles. En este formato de uso contamos con la ventaja de poder modificar el filtro de color RGB con mayor precisión que aquellos paneles que usan una fuente de luz blanca menos pura.












Gracias a los Quantum Dots podrás descubrir más de 1.000 millones de tonalidades


Sigue descubriendo:

QLED TV: en busca de la máxima fidelidad al color

QLED TV de Samsung: con Q de Quantum Dot

Como es evidente, para sacar el máximo provecho a esta tecnología, las compañías deben realizar un exhaustivo trabajo de I+D. No en vano, Samsung compró la empresa QD Vision el pasado año para reforzar su estrategia en el campo de los Quantum Dots. 

Porque, al igual que sucede con los píxeles, no todos los QD son iguales, aunque compartan nomenclatura. ¿Cómo se aplica esta tecnología tan reciente? Entre los requisitos clave está la densidad: si la densidad de los QD no es lo suficientemente elevada y con una disposición uniforme, no se podrá obtener esa pureza de color deseada.

qdot-despiece

Samsung ha revestido a sus QD con un encapsulado metálico, logrando así mayor densidad en el proceso de deposición de las nanopartículas, además de una mayor uniformidad en la forma de los QD, lo cual mejora la capacidad de los puntos cuánticos para mostrar los colores con total fidelidad. Incluso a los máximos niveles de brillo. 

Este encapsulado metálico también beneficia al ángulo de visión, consiguiendo que los colores no pierdan sus cualidades cromáticas incluso cuando se ve la pantalla desde posiciones esquinadas, alejadas del centro.


Un compendio de tecnologías al servicio de la calidad de imagen

QLED TV es el nombre con el que Samsung denomina a su tecnología de pantallas basadas en Quantum Dots.

Hasta hace poco, las teles tradicionales contaban con unos 500 nits. Pero para apreciar de un modo creíble las variaciones de luminosidad que exhiben los contenidos grabados en HDR, se necesitan 1.000, 1.500 o hasta 2.000 nits. Es lo que Samsung ha dado en llamar HDR 1500: poder mostrar colores fieles a la realidad sin descuidar la métrica de volumen de color. Es decir, evitar la distorsión o degradación de la información de color.

Pero al subir el brillo nos encontramos con otro problema: los reflejos. En un hogar, donde la simple luz que penetra por las ventanas puede distorsionar la respuesta del color, esto es algo que conviene combatir mediante tecnología.

Aquí es donde entra en juego la tecnología Ultra Black de las pantallas de los televisores QLED, capaz de absorber los brillos y reflejos ambientales, para evitar esa redundancia de luz. De nada servirán los populares «negros puros» si se refleja la luz ambiental sobre la pantalla.

ultrablack

La tecnología Ultra Black se comporta como una especie de pequeños agujeros negros, aplicando a la superficie de la pantalla una estructura rugosa capaz de guiar los reflejos, atenuándolos sin dejarlos salir de la pantalla.

  • portada
  • black
  • hdr
  • qdots
  • led

Más luz sin distorsión en los colores

Pongamos la música como ejemplo: en equipos de sonido a veces encontramos propuestas con potencias de centenares de vatios, pero cuando escuchamos alguna canción con bajos potentes o agudos intensos, encontramos que, a partir de cierto nivel de volumen, el sonido se distorsiona.

Con el color sucede algo similar: si subimos o bajamos mucho el brillo, puede suceder que los colores empiecen a “quemarse” o distorsionarse, o que directamente no se aprecien si el brillo se reduce por debajo de un determinado nivel.

Los televisores QLED permiten usar niveles de brillo hasta el máximo disponible manteniendo la fidelidad de los colores. Y también son capaces de manejar los niveles de “oscuridad” con valores próximos a cero, gracias a la precisión en el uso de la retroiluminación LED.

Los niveles de brillo de hasta 2.000 nits son necesarios para que la experiencia multimedia sea óptima incluso con luz ambiente alta. Y los televisores deben asumir la responsabilidad de manejar estos contenidos con la mayor fidelidad posible.












Independientemente del nivel de brillo, con los televisores QLED se mantiene la fidelidad de los colores.

Sigue descubriendo:


HDR, así se atrapa el color más real 

HDR, la máxima expresión de calidad

El HDR (Alto Rango Dinámico) también utilizado de forma indistinta tanto en fotografía como vídeo. El HDR en vídeo apela tanto a la técnica y herramienta de la propia TV como al proceso de producción. En una fotografía, es la cámara la que analiza la escena y decide si es lo bastante luminosa u oscura para que la foto se corrija en tiempo real.

El objetivo de este despliegue tecnológico en las pantallas de los televisores QLED es el de mostrar contenidos HDR con las máximas garantías, sin romper la compatibilidad con el viejo contenido SDR. Dicho de otro modo: cualquier TV con HDR puede reproducir material en rango dinámico estándar, no al revés.

Un televisor QLED no aprovecha todas sus características si nos limitamos a consumir televisión vía TDT. Es como escuchar música solo a través de radio. Una QLED TV muestra todo su potencial cuando se usa para ver series, películas, fotos o incluso juegos codificados bajo estándares como HDR 10 y HLG. Es decir: videojuegos de última generación, en consolas como PlayStation 4 Pro o Xbox One S/X, portales como Demo UHD3D, plataformas de streaming como Netflix, Amazon o HBO, el propio contenido 4K HDR de Youtube, o cualquier Blu-Ray actual.

Los únicos requisitos son, en el caso del streaming, un ancho de banda suficiente para descargar el vídeo; conectividad HDMI 2.0a en el caso de las consolas y reproductores Blu-Ray y una suscripción premium en las plataformas que suministren estos contenidos —Netflix solo ofrece HDR en cuatro pantallas en una de sus modalidades de suscripción—.

El HLG, por el que apenas hemos pasado de puntillas, es un formato complementario al HDR. Su única particularidad es que está pensado para transportar en la misma señal vídeo convencional sin HDR más una capa de información extra para que los receptores generen el vídeo con el HDR que consideren conveniente. Explicado de forma resumida: no usa metadatos. Por tanto, es ideal para todo tipo de retransmisiones en directo, como los eventos deportivos.

La tendencia, en cualquier caso, es la de producir más contenidos HDR disponibles tanto en soportes físicos, como en plataformas de streaming. A diferencia del 2K y 4K, el HDR sí ofrece un cambio visual fácil de percibir, gracias a la profundidad del gamut, a la pureza del color y a una iluminación más natural, ideal para toda forma de contenido multimedia.













La tendencia, en cualquier caso, es la de producir más contenidos HDR disponibles tanto en soportes físicos, como en plataformas de streaming.

¿Qué HDR puedo ver en mi tele?

Como sucede en cada faceta de la imagen y el sonido, algunos estándares tienden a solaparse y complementarse. HDR10, Dolby Vision o HLG empiezan a ser términos familiares en el argot televisivo, Dolby Atmos en el audio. Ellos tres son variantes del HDR, modificando la forma en la que capturan, transportan o decodifican los contenidos.

HDR10 es el estándar abierto que Samsung utiliza en sus televisores QLED. HDR10 usa metadatos estáticos para el ajuste fino de los parámetros de visualización, dependiendo de la tele que se use para verlos. HDR10+ es una variante ideada por Samsung para añadir metadatos dinámicos a las emisiones, y ha sido adoptado, de momento, por Amazon Vídeo. Ambos, HDR10 y HDR10+, usan codificación de 10 bits para el color, con hasta 4.000 nits de brillo y con colores que entran dentro del espacio Rec.2020.

perro

Dolby Vision, por su parte, usa 12 bits para la codificación del color, el espacio Rec.2020 y metadatos dinámicos con un máximo de 10.000 nits. Además, los metadatos son dinámicos, con información de ajuste para cada fotograma.

HLG (Hybrid Log Gamma), como decíamos, es un tipo de HDR especialmente pensado para la televisión, sin metadatos y compatible con televisores SDR sin necesidad de conversión alguna. Está en fase de integración en plataformas de contenidos y las emisiones de TV. Los televisores Samsung de 2017 son compatibles con HLG y los del año pasado podrán serlo mediante una actualización de firmware.

En cuanto a las consolas, tanto Xbox One S/X como PS4 Pro permiten manejar contenidos HDR, incluyendo tanto juegos actuales como pasados previa actualización, ya que no requiere de una remasterización de contenido, sino de una distinta transferencia de datos en la transmisión del vídeo.

Por supuesto, también podemos a contenidos HDR a través de todo el material almacenado en sistemas externos como llaves USB o discos duros, siempre y cuando estos archivos estén codificados con los formatos adecuados. Aquí entra en juego la tecnología Smart TV y tanto las aplicaciones del sistema como las que instalemos para tal fin. Samsung usa su propio sistema operativo Tizen, optimizado para sacar el máximo partido posible a nuestro televisor, contenidos, servicios y aplicaciones de nuestra televisión. Por contenidos no va a ser. 


El mapa del HDR

HDR map

Sigue descubriendo

Subir