Pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) desenvolveram seu próprio método para ensinar novas habilidades aos robôs. Em vez do conjunto padrão de dados focados que normalmente é usado para treinar robôs, eles usaram grandes conjuntos de dados, simulando assim o processo de treinamento de grandes modelos de linguagem (LLMs).

Fonte da imagem: mit

Segundo pesquisadores do MIT, a aprendizagem por imitação, quando um robô aprende com as ações de uma pessoa que executa uma tarefa específica, pode não ser eficaz quando o ambiente muda de forma insignificante. Por exemplo, o robô pode ter dificuldades após o treinamento se for colocado em um ambiente com iluminação ou objetos diferentes.

Em seu trabalho, os pesquisadores utilizaram diferentes LLMs, como o GPT-4, para melhorar a qualidade do aprendizado por força bruta. “No campo dos modelos de linguagem, todos os dados são apenas frases. Na robótica, dada toda a heterogeneidade dos dados, se quisermos fazer o pré-treinamento de forma semelhante, então precisamos de uma arquitetura diferente”, disse Lirui Wang, um dos autores do estudo.

Os pesquisadores desenvolveram uma nova arquitetura chamada Transformadores Pré-treinados Heterogêneos (HPT), que combina informações de diferentes sensores e diferentes ambientes. Os dados recolhidos desta forma são combinados em modelos treináveis ​​através de um “transformador”. O usuário final só precisa especificar o design do robô, sua configuração e a habilidade que ele precisa aprender.

«Nosso sonho é criar um cérebro robótico universal que você possa baixar e usar em seu robô sem nenhum treinamento. Ainda estamos nos estágios iniciais, mas continuaremos trabalhando duro e esperamos que o dimensionamento leve a um avanço na robótica, como aconteceu com grandes modelos de linguagem”, disse um dos autores do estudo, David Held.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *