Meta treinou a rede neural data2vec para trabalhar com fala, imagens e texto para que pudesse “entender o mundo”

Os meta pesquisadores treinaram um modelo de inteligência artificial (IA) para processar fala, imagens e texto no que eles esperam que seja a base para futuros desenvolvimentos em realidade aumentada e metaverso.

Fonte da imagem: Gerd Altmann / pixabay.com

O modelo, chamado data2vec, realiza tarefas de vários tipos: reconhece a fala quando você digita a voz; ao inserir dados no formato de uma imagem, identifica objetos nela; e tendo recebido o texto na entrada, verifica se há erros gramaticais e analisa entonações com fundo emocional. Tradicionalmente, os algoritmos de IA são treinados em um tipo de dado, mas no caso do data2vec, optou-se por trabalhar com três formatos. Mas com cada um deles, a rede neural funciona independentemente das outras.

A empresa espera que, no futuro, esses modelos multimodais tornem os computadores mais adaptáveis ​​- capazes de combinar ambientes físicos e digitais em uma única dimensão conceitual. “As pessoas percebem o mundo através de uma combinação de visão, audição e palavras – sistemas como esse um dia entenderão o mundo da mesma maneira que nós. Algum dia ele será incorporado a óculos de realidade aumentada ou a um assistente de IA para, por exemplo, ajudar uma pessoa a preparar o jantar, anotando ingredientes ausentes, recomendando diminuir o fogo ou [realizando] tarefas mais complexas ”, Mark Zuckerberg, chefe da Meta , comentou o projeto ao The Register.(Mark Zuckerberg).

A plataforma de hardware do sistema data2vec foi construída utilizando 16 aceleradores NVIDIA V100 e A100. 960 horas de gravações de áudio de voz, vários milhões de palavras de livros e páginas da Wikipedia, bem como imagens do banco de dados ImageNet-1K foram usados ​​como dados iniciais para o treinamento de IA. Quando testado em tarefas específicas, o data2vec provou ser mais eficiente do que alguns dos principais modelos de IA treinados em apenas um tipo de dados. No futuro, disse um dos desenvolvedores do projeto, está previsto expandir a percepção da rede neural com outros tipos de dados, como cheiros, objetos 3D e vídeos.

avalanche

Postagens recentes

O parceiro da Nvidia revelou o momento do anúncio da GeForce RTX 5090

Durante uma transmissão ao vivo especial organizada pelo canal de Pichau no YouTube, os espectadores…

20 minutos atrás

Os desenvolvedores do Microsoft Flight Simulator 2024 resolveram os principais problemas – a estabilidade do servidor atingiu 99,999%

O recente lançamento do simulador de vôo Microsoft Flight Simulator 2024 do Xbox Game Studios…

29 minutos atrás

Tesla admitiu que seus robôs e táxis autônomos serão controlados remotamente por pessoas

No início desta semana, muitos recursos especializados chamaram a atenção para um anúncio de vaga…

1 hora atrás