Categorias: Sem categoria

Meta falou sobre o Projeto CAIRaoke, um projeto para melhorar os assistentes de voz baseados em tecnologias de IA

Desenvolvedores do Meta (antigo Facebook) falaram sobre o projeto Project CAIRaoke, que criou um “modelo neural de ponta a ponta” que fornece um processo muito mais natural de interação humana com um assistente de voz. O novo modelo já está sendo usado em telas inteligentes do Portal e fará parte de dispositivos VR e AR no futuro para oferecer a melhor experiência de assistente virtual.

Fonte da imagem: Meta

O relatório diz que um dos principais obstáculos para melhorar os assistentes de voz é a arquitetura na qual eles são construídos. Apesar do fato de que esses sistemas parecem um todo único, eles são baseados em quatro componentes separados: compreensão de linguagem natural (NLU), rastreamento de estado de diálogo (DST), gerenciamento de política de diálogo (DP) e geração de linguagem natural (NLG). Esses componentes estão interconectados, o que dificulta sua otimização e adaptação a novas tarefas e depende em grande parte de conjuntos de dados anotados. Essa é uma das razões pelas quais os assistentes de voz de hoje mantêm os usuários dentro de limites rígidos ao interagir.

O Projeto CAIRaoke já criou modelos neurais que permitirão que as pessoas se comuniquem de forma mais natural e livre com assistentes de voz, por exemplo, retornando ao tópico anterior da conversa ou alterando-o completamente, mencionando coisas que dependem da compreensão das nuances do contexto, etc. Os usuários também poderão interagir com assistentes de voz de novas maneiras, como gestos. O novo modelo está sendo usado atualmente em monitores inteligentes do Portal e está em testes iniciais. No entanto, os desenvolvedores já estão confiantes de que é superior às abordagens existentes usadas para criar assistentes de voz.

Os desenvolvedores expressaram sua confiança de que o progresso feito no âmbito do Projeto CAIRaoke tornará a comunicação entre algoritmos de IA e humanos mais natural e também se tornará uma ferramenta importante na criação do metaverso. O assistente de voz embutido em um fone de ouvido AR se tornará mais útil no futuro e poderá entender o significado do que o usuário diz em linguagem natural. No futuro, esses assistentes de voz poderão aparecer em diferentes aplicativos, para que pessoas de todo o mundo possam interagir com eles.

avalanche

Postagens recentes

O CEO da Nvidia deixou claro que a empresa não planeja mais investir na OpenAI e na Anthropic.

Até recentemente, acreditava-se que a Nvidia investiria os prometidos US$ 100 bilhões na OpenAI, mas…

23 minutos atrás

A Broadcom espera gerar mais de 100 bilhões de dólares em receita com chips de IA no próximo ano.

A Broadcom pode estar sendo ofuscada pelo boom da IA, mas isso não a impediu…

50 minutos atrás

A missão lunar Artemis da NASA tem lançamento previsto para 1º de abril.

Um problema na transferência de hélio no estágio intermediário do foguete SLS, na segunda quinzena…

4 horas atrás

A Huawei iniciou as vendas globais de suas soluções de data center com inteligência artificial.

Em meio ao crescente boom da IA, os compradores estão dispostos a pagar por uma…

9 horas atrás

A Nvidia lançou um driver de correção para resolver problemas de voltagem com a GeForce RTX 5000.

A Nvidia lançou a versão 595.76 do driver de correção, que resolve problemas de voltagem…

9 horas atrás