Meta treinou a rede neural data2vec para trabalhar com fala, imagens e texto para que pudesse “entender o mundo”

Os meta pesquisadores treinaram um modelo de inteligência artificial (IA) para processar fala, imagens e texto no que eles esperam que seja a base para futuros desenvolvimentos em realidade aumentada e metaverso.

Fonte da imagem: Gerd Altmann / pixabay.com

O modelo, chamado data2vec, realiza tarefas de vários tipos: reconhece a fala quando você digita a voz; ao inserir dados no formato de uma imagem, identifica objetos nela; e tendo recebido o texto na entrada, verifica se há erros gramaticais e analisa entonações com fundo emocional. Tradicionalmente, os algoritmos de IA são treinados em um tipo de dado, mas no caso do data2vec, optou-se por trabalhar com três formatos. Mas com cada um deles, a rede neural funciona independentemente das outras.

A empresa espera que, no futuro, esses modelos multimodais tornem os computadores mais adaptáveis ​​- capazes de combinar ambientes físicos e digitais em uma única dimensão conceitual. “As pessoas percebem o mundo através de uma combinação de visão, audição e palavras – sistemas como esse um dia entenderão o mundo da mesma maneira que nós. Algum dia ele será incorporado a óculos de realidade aumentada ou a um assistente de IA para, por exemplo, ajudar uma pessoa a preparar o jantar, anotando ingredientes ausentes, recomendando diminuir o fogo ou [realizando] tarefas mais complexas ”, Mark Zuckerberg, chefe da Meta , comentou o projeto ao The Register.(Mark Zuckerberg).

A plataforma de hardware do sistema data2vec foi construída utilizando 16 aceleradores NVIDIA V100 e A100. 960 horas de gravações de áudio de voz, vários milhões de palavras de livros e páginas da Wikipedia, bem como imagens do banco de dados ImageNet-1K foram usados ​​como dados iniciais para o treinamento de IA. Quando testado em tarefas específicas, o data2vec provou ser mais eficiente do que alguns dos principais modelos de IA treinados em apenas um tipo de dados. No futuro, disse um dos desenvolvedores do projeto, está previsto expandir a percepção da rede neural com outros tipos de dados, como cheiros, objetos 3D e vídeos.

avalanche

Postagens recentes

A Cloud Imperium Games demitiu funcionários após “horas extras cansativas” e o faturamento da Star Citizen ultrapassou US$ 750 milhões

Enquanto o ambicioso simulador espacial Star Citizen do estúdio Cloud Imperium Games (CIG) conquista novos…

1 hora atrás

50% de desconto no gerenciador de senhas Passwork

De 29 de novembro a 4 de dezembro, Passwork realiza uma promoção Black Friday. Hoje…

2 horas atrás

A Alemanha decidiu subsidiar a indústria nacional de semicondutores

A decisão da Intel de adiar por alguns anos o início da construção de duas…

7 horas atrás

A Intel apresentará placas de vídeo Battlemage no dia 3 de dezembro – as vendas começarão no dia 12 de dezembro

Na próxima semana, a Intel apresentará a primeira nova geração de placas de vídeo, codinome…

12 horas atrás

Warhammer 40.000: Space Marine 2 atingiu um novo pico de vendas e em breve receberá um grande patch com operação Demerium e geração de quadros DLSS

A editora Focus Entertainment e os desenvolvedores do estúdio Sabre Interactive compartilharam detalhes do próximo…

12 horas atrás