Adobe anunciou o gerador de vídeo AI Firefly e o mostrou em ação

A Adobe exibiu os recursos de suas próximas ferramentas de inteligência artificial para trabalhar com vídeo, incluindo a capacidade de criar vídeos a partir de imagens estáticas. O modelo da família Firefly é o responsável por essas funções, que será integrado aos aplicativos Adobe Creative Cloud e poderá editar áudio e vídeo.

Fonte da imagem: youtube.com/@AdobeVideo

O vídeo promocional mostra imagens criadas usando a família de IA Firefly, que gera vídeos com base em descrições de texto – em abril, a Adobe anunciou que tal conjunto de funções apareceria, mas a empresa só demonstrou suas capacidades agora. Será possível gerar um vídeo a partir da descrição e ajustar os resultados por meio de “controles de câmera” que simulam mudanças no ângulo de visão, seu movimento e a distância a partir da qual a filmagem é realizada. Existe uma função para gerar um vídeo a partir de uma imagem estática, que é definida como amostra; Você também pode gerar quadros intermediários se for criada uma lacuna durante a edição do vídeo.

A qualidade do vídeo na demonstração está no mesmo nível do OpenAI Sora, que a Adobe também pode adicionar ao Premiere Pro como um plugin de terceiros. Mas em sua encarnação atual, as capacidades do Firefly ainda são limitadas – o modelo gera vídeos de até cinco segundos de duração. Uma vantagem importante do modelo da Adobe é que os materiais que ela cria são “comercialmente seguros”. Isso significa que a IA foi treinada em materiais licenciados e disponíveis publicamente, bem como em conteúdos do acervo do Adobe Stock – a empresa garante que o vídeo criado dessa forma pode ser utilizado sem restrições para fins comerciais.

Funções para gerar vídeos a partir de uma descrição de texto ou imagem estática aparecerão na versão beta do aplicativo Firefly este ano. Projetada para vídeo, a família Firefly será integrada aos aplicativos Creative Cloud, Experience Cloud e Adobe Express. A empresa também exibiu vários vídeos criados usando o recurso Generative Extend, que estende a duração das filmagens existentes, semelhante ao recurso Generative Expand do Photoshop para preparar imagens de fundo. A Adobe não especificou quando os novos recursos estarão disponíveis aos usuários, mas prometeu lançá-los ainda este ano.

avalanche

Postagens recentes

Meta retorna ao iGame: Superintelligence Lab revela a poderosa rede neural Muse Spark.

A Meta✴ lançou um novo modelo de IA chamado Muse Spark, após Mark Zuckerberg investir…

1 hora atrás

A Microsoft continua passando por mudanças em seu quadro de funcionários, com a renúncia do chefe de sua divisão de desenvolvedores.

A Microsoft perderá mais uma executiva experiente. Julia Liuson, chefe da divisão de desenvolvedores da…

3 horas atrás

Um aliado inesperado: as baterias nucleares irão acelerar o desenvolvimento de usinas de energia de fusão.

Construir um reator de fusão é uma coisa, mas gerar eletricidade a partir dele é…

3 horas atrás

Dez anos após seu lançamento, No Man’s Sky se tornou um análogo de Pokémon – trailer e detalhes da atualização Xeno Arena.

Os desenvolvedores do estúdio britânico Hello Games lançaram Xeno Arena (versão 6.3) – mais uma…

3 horas atrás

Os desenvolvedores de Forza Horizon 6 revelaram o mapa completo do Japão e seis minutos da explosiva introdução do jogo.

A editora Xbox Game Studios e os desenvolvedores do estúdio britânico Playground Games revelaram o…

5 horas atrás

“Eu uso a fera para derrotar a fera”: Americanos usam redes neurais para combater centros de dados com inteligência artificial.

Ativistas comunitários em áreas rurais dos Estados Unidos estão usando inteligência artificial em sua luta…

5 horas atrás