Meta treinou a rede neural data2vec para trabalhar com fala, imagens e texto para que pudesse “entender o mundo”

Os meta pesquisadores treinaram um modelo de inteligência artificial (IA) para processar fala, imagens e texto no que eles esperam que seja a base para futuros desenvolvimentos em realidade aumentada e metaverso.

Fonte da imagem: Gerd Altmann / pixabay.com

O modelo, chamado data2vec, realiza tarefas de vários tipos: reconhece a fala quando você digita a voz; ao inserir dados no formato de uma imagem, identifica objetos nela; e tendo recebido o texto na entrada, verifica se há erros gramaticais e analisa entonações com fundo emocional. Tradicionalmente, os algoritmos de IA são treinados em um tipo de dado, mas no caso do data2vec, optou-se por trabalhar com três formatos. Mas com cada um deles, a rede neural funciona independentemente das outras.

A empresa espera que, no futuro, esses modelos multimodais tornem os computadores mais adaptáveis ​​- capazes de combinar ambientes físicos e digitais em uma única dimensão conceitual. “As pessoas percebem o mundo através de uma combinação de visão, audição e palavras – sistemas como esse um dia entenderão o mundo da mesma maneira que nós. Algum dia ele será incorporado a óculos de realidade aumentada ou a um assistente de IA para, por exemplo, ajudar uma pessoa a preparar o jantar, anotando ingredientes ausentes, recomendando diminuir o fogo ou [realizando] tarefas mais complexas ”, Mark Zuckerberg, chefe da Meta , comentou o projeto ao The Register.(Mark Zuckerberg).

A plataforma de hardware do sistema data2vec foi construída utilizando 16 aceleradores NVIDIA V100 e A100. 960 horas de gravações de áudio de voz, vários milhões de palavras de livros e páginas da Wikipedia, bem como imagens do banco de dados ImageNet-1K foram usados ​​como dados iniciais para o treinamento de IA. Quando testado em tarefas específicas, o data2vec provou ser mais eficiente do que alguns dos principais modelos de IA treinados em apenas um tipo de dados. No futuro, disse um dos desenvolvedores do projeto, está previsto expandir a percepção da rede neural com outros tipos de dados, como cheiros, objetos 3D e vídeos.

avalanche

Postagens recentes

As vendas globais de chips dispararam 29,8% em novembro, atingindo um recorde histórico.

O boom da IA ​​está impulsionando os preços dos componentes semicondutores, resultando em um crescimento…

2 horas atrás

A xAI lançou os planos Grok Business e Grok Enterprise para usuários corporativos.

A xAI entrou oficialmente no mercado de serviços de IA para usuários corporativos. No final…

3 horas atrás

O drone chinês Tianma-1000, capaz de transportar até uma tonelada de carga, completou seu voo inaugural.

É impossível atender a todas as necessidades da indústria de transportes apenas com quadricópteros, por…

3 horas atrás

A China importou 35% de seus equipamentos para produção de chips, antes do prazo previsto.

Os scanners litográficos estão longe de ser o único equipamento necessário para a produção de…

4 horas atrás

Combate ritualístico, feiticeiros tântricos e horrores mitológicos: Rakshasa, um RPG com foco na narrativa e ambientado na Índia, foi anunciado.

A sequência lançada no outono passado, Vampire: The Masquerade — Bloodlines, decepcionou os fãs do…

4 horas atrás