Na conferência anual Neural Information Processing Systems (NeurIPS), que se dedica à inteligência artificial e ao aprendizado de máquina, que acontece hoje, a Intel apresentou dois projetos que estão relacionados ao reconhecimento e transcrição da linguagem falada. O projeto People’s Speech se concentra em tarefas de “reconhecimento automático de fala”, enquanto o projeto Multilingual Spoken Words Corpus (MSWC) se concentra em “buscas por palavras-chave”.

Fonte da imagem: Intel

Dentro de cada um dos projetos, foram criados conjuntos de dados contendo uma quantidade significativa de dados de áudio e estão entre as maiores coleções em sua classe. Ambas as iniciativas foram lançadas em 2018 para identificar e compilar as 50 linguagens mais usadas do mundo em um único conjunto de dados e, em seguida, colocar essas informações em uso. Para o People’s Speech e MSWC, os engenheiros da Intel colaboraram com colegas do Alibaba, Oracle, Google, Baidu e outros.

Como parte do projeto People’s Speech, os desenvolvedores criaram um conjunto de dados que inclui dezenas de milhares de horas de áudio falado monitorado. Atualmente é um dos maiores conjuntos de dados em sua classe em inglês, licenciado para uso acadêmico e comercial e disponível para download gratuito.

Ao mesmo tempo, o MSWC é um conjunto de dados de áudio-fala contendo mais de 300 mil palavras-chave em dezenas de idiomas e disponível para dispositivos inteligentes. O conjunto de dados MSWC cobre os idiomas falados por mais de 5 bilhões de pessoas e contribui para o desenvolvimento de aplicativos de voz para um amplo público. Ambos os conjuntos de dados estarão disponíveis para os desenvolvedores.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *