AI revoluciona la generación de videos a partir de texto

AI revoluciona la generación de videos a partir de texto

Noticias

La empresa de inteligencia artificial Stability AI ha lanzado una versión de prueba de su modelo de IA llamado “Stable Video Diffusion”, el cual es capaz de generar videos a partir de texto. Esta innovadora tecnología se basa en el modelo de imágenes de la compañía llamado “Stable Diffusion” y ha sido puesto a disposición del público en GitHub. Además, Stability AI ha publicado los pesos necesarios para ejecutar el modelo de manera local en Hugging Face.

Este modelo de IA ha sido entrenado en tres fases: entrenamiento previo de texto a imagen, entrenamiento previo de videos a baja resolución utilizando un gran conjunto de datos y ajuste fino de videos de alta resolución utilizando un conjunto de datos más pequeño.

La versión de prueba lanzada por la compañía permite generar videos a partir de dos imágenes, sin embargo, la generación de videos a partir de texto requiere actualmente una herramienta web que está en lista de espera.

La versión de prueba permite generar videos de 14 y 25 cuadros por segundo, a una velocidad de entre 3 y 30 cuadros por segundo.

Esta no es la primera vez que se desarrolla un modelo de IA capaz de generar videos a partir de texto. Empresas como Google y Meta también han presentado sus propias versiones de esta tecnología. Sin embargo, la propuesta de Stability AI ofrece una nueva perspectiva y se destaca por su enfoque en el ajuste fino de videos de alta resolución.

Esta nueva tecnología tiene el potencial de revolucionar la forma en que se generan videos, permitiendo a los usuarios plasmar sus ideas en movimiento de manera más rápida y eficiente que antes.

Preguntas frecuentes (FAQ)

¿Qué es Stable Video Diffusion?

Stable Video Diffusion es un modelo de inteligencia artificial desarrollado por Stability AI que puede generar videos a partir de texto.

¿Cómo funciona el modelo?

El modelo ha sido entrenado en tres fases: entrenamiento previo de texto a imagen, entrenamiento previo de videos a baja resolución y ajuste fino de videos de alta resolución.

¿Qué velocidades de cuadros puede generar el modelo?

La versión de prueba puede generar videos de 14 y 25 cuadros por segundo, a una velocidad de entre 3 y 30 cuadros por segundo.

¿Cuál es la diferencia entre Stable Video Diffusion y otros modelos similares?

Aunque empresas como Google y Meta también han desarrollado modelos de IA para generar videos a partir de texto, el enfoque de Stability AI se destaca por su énfasis en el ajuste fino de videos de alta resolución.

¿Cuál es el impacto de esta tecnología?

Esta nueva tecnología tiene el potencial de revolucionar la generación de videos, permitiendo a los usuarios plasmar sus ideas en movimiento de manera más rápida y eficiente.