Stability AI introduziu um modelo generativo de inteligência artificial, Stable Video Diffusion, projetado para criar vídeos baseados em descrições de texto. É baseado no modelo Stable Diffusion, que gera imagens estáticas com base em consultas de texto.

Fonte da imagem: Stability.ai

O desenvolvedor publicou o código-fonte do Stable Video Diffusion no GitHub, e os modelos de peso necessários para o lançamento local estão disponíveis para download na plataforma Hugging Face. A empresa também publicou material de pesquisa detalhando as capacidades técnicas do modelo. O Stable Video Diffusion é livremente adaptável para diversas tarefas, por exemplo, pode ser configurado para gerar vídeo a partir de uma única imagem como referência. Ela se tornará a plataforma base para toda uma família de modelos derivados que serão lançados posteriormente – a empresa pretende construir um ecossistema inteiro.

Num futuro próximo, o Stability AI oferecerá a capacidade de gerar vídeos usando uma descrição de texto na interface web – para estar entre os primeiros usuários do serviço, você precisa se inscrever para ser incluído na lista de espera. O Stable Video Diffusion está disponível em dois modelos de conversão de imagem para vídeo – eles geram 14 (SVD) e 25 (SVD-XT) quadros de vídeo com taxas de quadros configuráveis ​​de 3 a 30 quadros por segundo.

O projeto está atualmente numa fase inicial e, na sua forma atual, o modelo não se destina a criar aplicações comerciais ou completas – por enquanto é puramente um projeto científico sobre o qual está a ser recolhido feedback. No futuro, é claro, há planos para lançar uma versão completa do Stable Video Diffusion.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *