Meta treinou a rede neural data2vec para trabalhar com fala, imagens e texto para que pudesse “entender o mundo”

Os meta pesquisadores treinaram um modelo de inteligência artificial (IA) para processar fala, imagens e texto no que eles esperam que seja a base para futuros desenvolvimentos em realidade aumentada e metaverso.

Fonte da imagem: Gerd Altmann / pixabay.com

O modelo, chamado data2vec, realiza tarefas de vários tipos: reconhece a fala quando você digita a voz; ao inserir dados no formato de uma imagem, identifica objetos nela; e tendo recebido o texto na entrada, verifica se há erros gramaticais e analisa entonações com fundo emocional. Tradicionalmente, os algoritmos de IA são treinados em um tipo de dado, mas no caso do data2vec, optou-se por trabalhar com três formatos. Mas com cada um deles, a rede neural funciona independentemente das outras.

A empresa espera que, no futuro, esses modelos multimodais tornem os computadores mais adaptáveis ​​- capazes de combinar ambientes físicos e digitais em uma única dimensão conceitual. “As pessoas percebem o mundo através de uma combinação de visão, audição e palavras – sistemas como esse um dia entenderão o mundo da mesma maneira que nós. Algum dia ele será incorporado a óculos de realidade aumentada ou a um assistente de IA para, por exemplo, ajudar uma pessoa a preparar o jantar, anotando ingredientes ausentes, recomendando diminuir o fogo ou [realizando] tarefas mais complexas ”, Mark Zuckerberg, chefe da Meta , comentou o projeto ao The Register.(Mark Zuckerberg).

A plataforma de hardware do sistema data2vec foi construída utilizando 16 aceleradores NVIDIA V100 e A100. 960 horas de gravações de áudio de voz, vários milhões de palavras de livros e páginas da Wikipedia, bem como imagens do banco de dados ImageNet-1K foram usados ​​como dados iniciais para o treinamento de IA. Quando testado em tarefas específicas, o data2vec provou ser mais eficiente do que alguns dos principais modelos de IA treinados em apenas um tipo de dados. No futuro, disse um dos desenvolvedores do projeto, está previsto expandir a percepção da rede neural com outros tipos de dados, como cheiros, objetos 3D e vídeos.

avalanche

Postagens recentes

Alarme falso: CD Projekt Red explica o que estava por trás do novo teaser de Cyberpunk 2077

O teaser do RPG de ação Cyberpunk 2077, publicado no dia anterior, acabou fazendo muito…

2 horas atrás

Robôs da Optimus gerarão até 80% da receita da Tesla – Previsão de Elon Musk

O bilionário americano Elon Musk afirmou que até 80% da receita futura da Tesla virá…

3 horas atrás

“Viva. Morra. E Novamente”: Metal Eden, jogo de tiro inspirado em Edge of Tomorrow, está à venda

Os desenvolvedores do estúdio polonês Reikon Games (Ruiner), em conjunto com a editora Deep Silver,…

3 horas atrás

Da GTX 1060 à RTX 5070: a Techland publicou os requisitos completos do sistema de Dying Light: The Beast, incluindo para laptops

Os desenvolvedores do estúdio polonês Techland apresentaram os requisitos completos do sistema do jogo de…

5 horas atrás