La CTO de OpenAI dice que Sora llegará este año y sugiere que puede incluir una función que lo hará más sorprendente

  • Mira Murati cree que Sora podría estar disponible "en unos meses"

  • Además, está abierta la posibilidad a que el modelo también genere audio

Sora Portada
9 comentarios Facebook Twitter Flipboard E-mail

Cuando OpenAI presentó Sora el pasado mes de febrero alucinamos con su capacidad para crear vídeos. Hasta ese momento no creíamos que los modelos generativos estuvieran tan avanzados como para simular nuestro mundo con una precisión sorprendente (aunque no sin imperfecciones). El acceso a esta herramienta, sin embargo, estaba estrictamente limitado y no había una fecha de lanzamiento anunciada. 

Desde hace aproximadamente un mes que Sora está disponible para los miembros del equipo rojo de OpenAI, que se encarga de identificar vulnerabilidades, sesgos y otros problemas, y de un reducido número de diseñadores, cineastas y artistas visuales, los cuales brindan comentarios desde un punto de vista creativo. Pero todo parece indicar que no tendremos que esperar demasiado para acceder a este modelo. 

Se acerca el lanzamiento de Sora

En una entrevista con The Wall Street Journal, la directora de tecnología de OpenAI, Mira Murati, reveló una serie de pistas que pueden ayudarnos a calcular cuándo llegará Sora. La ejecutiva dijo que la herramienta estará disponible “este año” y, si bien no brindó una fecha exacta, señaló que esto podría ocurrir en “unos meses”. Así que, si nos basamos en esto, no tendremos que esperar hasta 2025. 

No obstante, antes de ilusionarnos, deberíamos tener en cuenta algunos detalles adicionales. En este momento no sabemos si OpenAI hará un lanzamiento global de Sora este año o, por el contrario, optará por un despliegue gradual. Por otra parte, tendremos que esperar para saber si la nueva regulación de la Unión Europea podría retrasar el despliegue de la herramienta (algo que ya sucedió con Microsoft Copilot).

Cuando Sora esté disponible para el público, la herramienta de IA podría llegar con una sorpresa. La compañía está considerando incorporar audio a los vídeos generados. Se trata, sin dudas, de un elemento que potenciaría aún más el realismo de las escenas. Por si esto fuera poco, OpenAI también está trabajando en herramientas de edición que se espera que estén disponibles para los usuarios.

Mira Murati Openai Mira Murati, directora de tecnología de OpenAI

Uno de los temas espinosos en relación al modelo de generación de vídeo de OpenAI es cómo ha sido entrenado. Desde que la compañía dirigida por Sam Altman adoptó un enfoque comercial (y por consecuencia cerrado) muchos detalles sobre sus productos han permanecido en secreto, incluido de donde han salido los datos para “dar vida” a sus modelos de inteligencia artificial generativa.

Sora 2 Imagen generada por Sora

Esta cuestión ya que se ha traducido en algunas demandas por infracción de copyright contra OpenAI. The New York Times, por ejemplo, acusó a la compañía de extraer el contenido de sus artículos para entrenar los modelos que hacen funcionar a ChatGPT. Si nos enfocamos en Sora, ¿con qué datos ha sido entrenado este modelo? Murati también ha brindado algunas pistas sobre ello en la mencionada entrevista.

La especialista dijo que utilizaron datos disponibles públicamente con licencia o sin licencia. Preguntada sobre si la compañía había obtenido parte de esos datos de servicios como Facebook, Instagram o YouTube, respondió que no estaba segura y añadió: “no voy a entrar en detalles”. Más tarde, sin embargo, confirmó que el material con licencia incluye contenido del banco de imágenes Shutterstock.

Imágenes | OpenAI

En Xataka | Lo último de Google es una IA que juega a videojuegos. La clave: lo hace entendiendo el lenguaje natural

Inicio