Desenvolvedores do Meta (antigo Facebook) falaram sobre o projeto Project CAIRaoke, que criou um “modelo neural de ponta a ponta” que fornece um processo muito mais natural de interação humana com um assistente de voz. O novo modelo já está sendo usado em telas inteligentes do Portal e fará parte de dispositivos VR e AR no futuro para oferecer a melhor experiência de assistente virtual.
Fonte da imagem: Meta
O relatório diz que um dos principais obstáculos para melhorar os assistentes de voz é a arquitetura na qual eles são construídos. Apesar do fato de que esses sistemas parecem um todo único, eles são baseados em quatro componentes separados: compreensão de linguagem natural (NLU), rastreamento de estado de diálogo (DST), gerenciamento de política de diálogo (DP) e geração de linguagem natural (NLG). Esses componentes estão interconectados, o que dificulta sua otimização e adaptação a novas tarefas e depende em grande parte de conjuntos de dados anotados. Essa é uma das razões pelas quais os assistentes de voz de hoje mantêm os usuários dentro de limites rígidos ao interagir.
O Projeto CAIRaoke já criou modelos neurais que permitirão que as pessoas se comuniquem de forma mais natural e livre com assistentes de voz, por exemplo, retornando ao tópico anterior da conversa ou alterando-o completamente, mencionando coisas que dependem da compreensão das nuances do contexto, etc. Os usuários também poderão interagir com assistentes de voz de novas maneiras, como gestos. O novo modelo está sendo usado atualmente em monitores inteligentes do Portal e está em testes iniciais. No entanto, os desenvolvedores já estão confiantes de que é superior às abordagens existentes usadas para criar assistentes de voz.
Os desenvolvedores expressaram sua confiança de que o progresso feito no âmbito do Projeto CAIRaoke tornará a comunicação entre algoritmos de IA e humanos mais natural e também se tornará uma ferramenta importante na criação do metaverso. O assistente de voz embutido em um fone de ouvido AR se tornará mais útil no futuro e poderá entender o significado do que o usuário diz em linguagem natural. No futuro, esses assistentes de voz poderão aparecer em diferentes aplicativos, para que pessoas de todo o mundo possam interagir com eles.
Até recentemente, acreditava-se que a Nvidia investiria os prometidos US$ 100 bilhões na OpenAI, mas…
A Broadcom pode estar sendo ofuscada pelo boom da IA, mas isso não a impediu…
A última sexta-feira não foi um bom dia para a startup de IA Anthropic, já…
Um problema na transferência de hélio no estágio intermediário do foguete SLS, na segunda quinzena…
Em meio ao crescente boom da IA, os compradores estão dispostos a pagar por uma…
A Nvidia lançou a versão 595.76 do driver de correção, que resolve problemas de voltagem…