O Google facilitou o treinamento de robôs para fazer coisas diferentes com a ajuda do modelo RT-2 AI – as máquinas foram ensinadas a jogar lixo fora

O Google anunciou o desenvolvimento do modelo de inteligência artificial RT-2 (Robotics Transformer 2), projetado para integração em robôs. Ele combina a capacidade de processar imagens, comandos de voz e funções motoras de controle.

Fonte da imagem: blog.google

RT-2 é o primeiro modelo de classe Vision-Language-Action (VLA). É baseado na arquitetura do tipo “Transformer” e treinado em textos e imagens da Internet, e sua principal vantagem é a transformação de dados em comandos para realizar determinadas ações. Em outras palavras, observa o Google, ele “fala a linguagem dos robôs”.

Os métodos tradicionais de treinamento de robôs consomem muito tempo e são caros, o que significa que são impraticáveis ​​para os desenvolvedores – eles exigem a entrada de dados separados para cada objeto, ambiente, tarefa e situação no mundo real. A introdução do modelo de visão de máquina PaLM-E, com o qual os robôs aprenderam a navegar melhor no espaço, ajudou a aliviar a situação, e o modelo RT-1 mostrou que os robôs podem até aprender uns com os outros.

Um problema não resolvido até agora tem sido o treinamento de ações específicas. Os robôs já podiam se envolver em raciocínio de alto nível, mas não podiam realizar ações elementares em um nível baixo. Em outras palavras, eles pensavam no que queriam fazer, mas não conseguiam fazer seu próprio corpo se mover adequadamente. Esse problema é resolvido pelo modelo RT-2 – como um todo, ele garante o funcionamento dos algoritmos de raciocínio e controle das ações do robô. Mesmo para tarefas que não foram incluídas na matriz de dados no estágio de treinamento.

Por exemplo, para ensinar um robô a jogar lixo fora usando algoritmos tradicionais, primeiro seria necessário ensinar o robô a identificar explicitamente o lixo e depois mostrar como recolhê-lo e jogá-lo fora. Treinado em um grande conjunto de dados, o modelo RT-2 já tem uma ideia do que é lixo, bem como de como jogá-lo fora, embora nunca tenha sido treinado diretamente nessa ação. Ela conhece até a natureza abstrata do lixo: um saco de batatas fritas e uma casca de banana tornam-se lixo quando uma pessoa comeu as batatas fritas e a banana, respectivamente – RT-2 também entende isso, o que a ajuda a concluir a tarefa.

Os engenheiros do Google compararam o desempenho dos modelos RT-1 e RT-2 em mais de 6.000 testes práticos – o novo sistema não é inferior ao antigo em tarefas óbvias e mostra um aumento de quase duas vezes na eficiência ao trabalhar com objetos explicitamente desconhecidos e conceitos: 62% de resultados bem-sucedidos vs. 32% para RT-1.

avalanche

Postagens recentes

A OpenAI pode processar a Apple pela má promoção do ChatGPT.

Segundo Mark Gurman, da Bloomberg, a OpenAI planeja processar a Apple devido ao relacionamento "tenso"…

2 horas atrás

O filme The Legend of Zelda será lançado antes do previsto – a estreia foi adiada novamente.

Shigeru Miyamoto, cocriador da série de jogos de ação e aventura The Legend of Zelda,…

3 horas atrás

O maior drone solar do mundo realizou um voo recorde e desapareceu no oceano.

O voo recorde de longa duração do singular avião não tripulado Skydweller, que durou do…

4 horas atrás

A Nvidia está a caminho de atingir uma capitalização de mercado de 6 trilhões de dólares, com suas ações subindo 20% em uma semana.

As ações da Nvidia subiram na quinta-feira, ampliando os ganhos de 20% acumulados nos últimos…

4 horas atrás

A Microsoft está preparando um controle Xbox compacto para jogos na nuvem.

Fontes internas relatam que a Microsoft está desenvolvendo um novo controle compacto para Xbox voltado…

5 horas atrás

A Razer apresenta o notebook gamer Blade 18 com desempenho de desktop.

A Razer anunciou hoje seu laptop mais poderoso de todos os tempos, o Blade 18.…

5 horas atrás