O Google começou a testar um novo recurso chamado Audio Overviews, que utiliza redes neurais generativas para criar áudios gerais na primeira página dos resultados de pesquisa em dispositivos móveis. O recurso experimental fornecerá uma resposta no estilo podcast, na qual a IA discute a pergunta do usuário consigo mesma.

Fonte da imagem: Google

Ao fazer uma solicitação, por exemplo: “Como funcionam os fones de ouvido com cancelamento de ruído?”, um botão “Gerar Visão Geral de Áudio” pode aparecer na seção “As Pessoas Também Perguntam”. Clicar nele inicia o processo de geração de um arquivo de áudio, no qual a IA apresenta uma breve visão geral do podcast sobre o tópico no formato de uma conversa entre dois apresentadores. A geração leva em média de 30 a 40 segundos. O arquivo de áudio é incorporado diretamente aos resultados da pesquisa por meio de um miniplayer que permite iniciar e pausar a reprodução, ajustar a velocidade e silenciar o som. Os links para as fontes usadas na geração são exibidos abaixo do player: páginas com conteúdo relevante, artigos e outros materiais abertos.

A função baseia-se no modelo de linguagem Gemini, anteriormente apresentado como uma plataforma multimodal universal para geração de textos, imagens e áudio. O Audio Overviews é uma continuação da integração desse modelo aos produtos de busca do Google. Anteriormente, uma função semelhante foi implementada no NotebookLM (gerando resumos em áudio de documentos do usuário) e como parte do projeto Daily Listen, onde a IA gera resumos em áudio de notícias personalizados.

O teste de visões gerais de áudio faz parte da iniciativa Search Labs e atualmente está disponível apenas para usuários dos EUA que selecionaram o inglês como idioma.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *