Cientistas do MIT descobriram um método eficaz para ensinar robôs a partir de grandes modelos de linguagem de IA

Pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) desenvolveram seu próprio método para ensinar novas habilidades aos robôs. Em vez do conjunto padrão de dados focados que normalmente é usado para treinar robôs, eles usaram grandes conjuntos de dados, simulando assim o processo de treinamento de grandes modelos de linguagem (LLMs).

Fonte da imagem: mit

Segundo pesquisadores do MIT, a aprendizagem por imitação, quando um robô aprende com as ações de uma pessoa que executa uma tarefa específica, pode não ser eficaz quando o ambiente muda de forma insignificante. Por exemplo, o robô pode ter dificuldades após o treinamento se for colocado em um ambiente com iluminação ou objetos diferentes.

Em seu trabalho, os pesquisadores utilizaram diferentes LLMs, como o GPT-4, para melhorar a qualidade do aprendizado por força bruta. “No campo dos modelos de linguagem, todos os dados são apenas frases. Na robótica, dada toda a heterogeneidade dos dados, se quisermos fazer o pré-treinamento de forma semelhante, então precisamos de uma arquitetura diferente”, disse Lirui Wang, um dos autores do estudo.

Os pesquisadores desenvolveram uma nova arquitetura chamada Transformadores Pré-treinados Heterogêneos (HPT), que combina informações de diferentes sensores e diferentes ambientes. Os dados recolhidos desta forma são combinados em modelos treináveis ​​através de um “transformador”. O usuário final só precisa especificar o design do robô, sua configuração e a habilidade que ele precisa aprender.

«Nosso sonho é criar um cérebro robótico universal que você possa baixar e usar em seu robô sem nenhum treinamento. Ainda estamos nos estágios iniciais, mas continuaremos trabalhando duro e esperamos que o dimensionamento leve a um avanço na robótica, como aconteceu com grandes modelos de linguagem”, disse um dos autores do estudo, David Held.

avalanche

Postagens recentes

O Telegram tornou-se lucrativo pela primeira vez – três anos se passaram desde o início da monetização

O mensageiro Telegram tornou-se lucrativo pela primeira vez em sua história - três anos após…

46 minutos atrás

Para salvar o Chrome, o Google está pronto para fazer grandes mudanças nas relações com a Apple e outros parceiros

Os reguladores dos EUA estão pressionando o Google, acusando-o de dominar ilegalmente o mercado de…

46 minutos atrás

Nvidia corrigiu microcongelamentos em Indiana Jones e no Great Circle usando o driver GeForce Hotfix 566.45

A Nvidia lançou o GeForce Hotfix Display Driver 566.45, baseado no Game Ready Driver 566.36.…

1 hora atrás