NVIDIA es capaz de crear vídeos casi perfectos a cámara lenta de cualquier vídeo a velocidad normal

NVIDIA es capaz de crear vídeos casi perfectos a cámara lenta de cualquier vídeo a velocidad normal
17 comentarios Facebook Twitter Flipboard E-mail

Hace tiempo que NVIDIA nos sorprende con diversas aplicaciones de sus procesadores gráficos en el ámbito de la inteligencia artificial, y una nueva red neuronal es ahora capaz de generar vídeos a cámara lenta realmente llamativos de vídeos convencionales.

Es cierto que en los últimos tiempos muchos smartphones ofrece modos de grabació na cámara súperlenta (el Xperia XZ2 es uno de los referentes aquí), pero la tecnología de NVIDIA consigue ir más allá y ralentizar cualquier vídeo creando fotogramas de la nada por interpolación. El resultado, como podéis ver en el siguiente vídeo, es realmente fantástico.

Creando fotogramas (casi) de la nada

Los responsables de NVIDIA han colaborado con científicos de la Universidad de Massachusetts en Amherst y la Universidad de California en Merced para crear una red neuronal no supervisada capaz de crear un número arbitrario de fotogramas intermedios que permiten "crear la ilusión" de que las tomas se han grabado a cámara lenta.

Esa red neuronal de convolución (CNN) se encarga de estimar el patrón de movimiento de los diferentes objetos de la escena entre un fotograma y otro del vídeo original, a partir de lo cual se genera uno o varios fotogramas intermedios con los que se simula el efecto de cámara lenta.

Los creadores del algoritmo incluso alimentaron esta red con vídeos a cámara lenta del canal de YouTube The Slow Mo Guys, y tras entrenar al sistema con 11.000 vídeos de todo tipo lograron obtener un algoritmo realmente llamativo a la hora de generar esos vídeos a cámara lenta (o vídeos aún más a cámara lenta a partir de vídeos que ya lo estaban) desde una fuente de vídeo en velocidad normal.

Parece no obstante que esta tecnología no será fácil que llegue a los hogares: no está optimizada y hacer que funcione en tiempo real es hoy por hoy muy complejo. De hecho, los investigadores creen que para cuando quisieran presentarla para el público general esperan que ya esté presente en dispositivos y aplicaciones que se beneficien del proceso en la nube.

Vía | VentureBeat
En Xataka | En NVIDIA creen que la ley de Moore ha muerto: sus GPUs son la alternativa en muchos campos

Comentarios cerrados
Inicio