Em sua conferência anual Max, a Adobe exibiu um projeto de prova de conceito chamado Super Sonic, um protótipo de software baseado em IA que pode transformar texto em áudio, reconhecer objetos e reconhecer a voz do autor para criar rapidamente efeitos sonoros e áudio de fundo. para projetos de vídeo.
«Queríamos dar aos nossos usuários controle sobre o processo, […] ir além do fluxo de trabalho original de texto para áudio, e é por isso que estamos trabalhando em um aplicativo de áudio como este, que realmente oferece controle preciso sobre a energia e timing e o transforma em uma ferramenta expressiva.” — disse o chefe de IA da Adobe, Justin Salamon.
Super Sonic usa IA para reconhecer objetos em qualquer lugar da filmagem para criar uma consulta e gerar o som desejado. Em outro modo, o instrumento analisa diversas características da voz e do espectro sonoro e utiliza os dados resultantes para controlar o processo de geração. O usuário não precisa usar a voz; pode bater palmas, tocar um instrumento ou extrair o som original de qualquer outra forma disponível.
Vale ressaltar que a Adobe tradicionalmente apresenta uma série de recursos experimentais na conferência Max. No futuro, muitos deles acabarão no Adobe Creative Suite. Super Sonic poderia ser uma adição útil, por exemplo, ao Adobe Premiere, mas por enquanto as perspectivas futuras do projeto não são claras e ele permanece no status de versão demo.
Anteriormente, os desenvolvedores do Super Sonic estavam envolvidos no desenvolvimento do recurso generativo de IA do Firefly chamado Generative Extend, que permitia que clipes de vídeo curtos fossem estendidos por vários segundos, incluindo uma trilha de áudio.
A capacidade de criar efeitos sonoros a partir de uma consulta de texto ou voz é um recurso útil, mas longe de ser inovador. Muitas empresas, como a ElevenLabs, já oferecem ferramentas comerciais semelhantes.