Alibaba introduziu a rede neural EMO – ela dá vida a retratos, fazendo-os falar e até cantar

Pesquisadores do Instituto Alibaba de Computação Inteligente desenvolveram (PDF) um sistema de inteligência artificial chamado EMO (Emote Portrait Alive) que anima uma imagem estática de uma pessoa para fazê-la falar ou cantar de forma realista.

Fonte da imagem: youtube.com/@ai_beauty303

O sistema retrata expressões faciais e movimentos de cabeça realistas que correspondem exatamente aos tons emocionais do áudio a partir do qual a animação é gerada. “Os métodos tradicionais muitas vezes são incapazes de capturar toda a gama de expressões faciais humanas e a singularidade dos estilos faciais individuais. Para resolver esses problemas, propomos o EMO, uma nova estrutura que utiliza uma abordagem direta de síntese de áudio para vídeo, evitando a necessidade de modelos 3D intermediários ou pontos de referência faciais”, explicou o líder da equipe de desenvolvimento, Linrui Tian.

O sistema EMO é baseado em um modelo de difusão de IA que se mostrou capaz de gerar imagens realistas. Os pesquisadores treinaram-no em um conjunto de dados que incluía mais de 250 horas de gravações de vídeo de falantes: discursos, clipes de filmes, programas de TV e performances vocais. Ao contrário dos métodos anteriores, que envolvem a criação de um modelo tridimensional ou mecanismos de simulação de expressões faciais humanas, o EMO envolve a conversão direta de som em vídeo. Isso permite que o sistema transmita os menores movimentos e traços de personalidade associados à fala natural.

Os autores do projeto afirmam que o EMO supera os métodos existentes em termos de qualidade de vídeo, preservação de identidade e expressividade. Os pesquisadores entrevistaram um grupo focal e mostraram que os vídeos criados pelo EMO eram mais naturais e emocionais do que aqueles produzidos por outros sistemas. O sistema cria animações não apenas baseadas na fala, mas também usando áudio com voz – leva em consideração o formato da boca da pessoa na imagem original, adiciona expressões faciais adequadas e sincroniza os movimentos com a parte vocal. O único problema com a EMO é o potencial de abuso desta tecnologia. Os pesquisadores dizem que planejam estudar métodos para identificar vídeos gerados por IA.

avalanche

Postagens recentes

O driver mais recente da Intel irá acelerar os tempos de carregamento de jogos para algumas GPUs Arc.

A Intel lançou a versão 32.0.101.8626 WHQL do driver gráfico, que adiciona o recurso Graphics…

3 horas atrás

A Meta decidiu descontinuar o metaverso Horizon Worlds nos headsets de realidade virtual Quest, após pedidos de “fãs preocupados”.

Esta semana, a Meta✴Platforms anunciou que a plataforma de realidade virtual Horizon World seria descontinuada…

4 horas atrás

A Waymo gabou-se de que seus táxis autônomos percorreram mais de 270 milhões de quilômetros sem incidentes graves.

A Waymo anunciou que seus táxis autônomos percorreram mais de 270 milhões de quilômetros sem…

4 horas atrás

Cultivando a Inteligência Artificial Geral (IAG) em sua equipe / Inteligência Artificial

A busca por um gato preto em um quarto escuro (especialmente se for a versão…

4 horas atrás

A Xiaomi apresentou a próxima geração do carro elétrico SU7, com autonomia de até 902 km, LiDAR de série e, mais uma vez, mais barato que um Tesla.

A Xiaomi apresentou hoje oficialmente uma versão atualizada do veículo elétrico Xiaomi SU7, com uma…

6 horas atrás

O veículo explorador Perseverance descobriu um antigo delta de rio escondido sob a superfície de Marte.

Como é sabido, o rover Perseverance da NASA está explorando o delta de um antigo…

7 horas atrás