O Google DeepMind revelou dois novos modelos de inteligência artificial (IA) para robótica, o Gemini Robotics 1.5 e o Gemini Robotics-ER 1.5, que juntos implementam uma abordagem na qual um robô primeiro “pensa” em uma tarefa e só então a executa. A tecnologia é baseada em sistemas de IA generativa e foi projetada para superar as limitações dos robôs atuais, que exigem ampla personalização para cada tarefa específica.

Fonte da imagem: Google
Sistemas de IA generativa capazes de criar texto, imagens, áudio e até vídeo estão se tornando cada vez mais comuns. Assim como esses modelos geram esses tipos de dados, eles também podem gerar sequências de ações para robôs. Esse é o princípio por trás do projeto Gemini Robotics, do Google DeepMind, que anunciou dois modelos complementares que permitem aos robôs “pensar” antes de agir. Embora os modelos de linguagem em larga escala (LLMs) tradicionais apresentem diversas limitações, a introdução do raciocínio simulado expandiu significativamente suas capacidades, e um avanço semelhante pode ocorrer agora na robótica.
A equipe do Google DeepMind acredita que a IA generativa tem o potencial de revolucionar a robótica, fornecendo aos robôs funcionalidades de uso geral. Ao contrário dos sistemas atuais, que exigem meses de ajustes para uma única tarefa altamente especializada e são pouco adaptáveis a novas condições, as novas abordagens de IA permitem que os robôs operem em ambientes desconhecidos sem necessidade de reprogramação. Como observou Carolina Parada, chefe de robótica da DeepMind, os robôs atuais são “extremamente especializados e difíceis de implementar”.
Para implementar esse conceito, a DeepMind desenvolveu o Gemini Robotics-ER 1.5 e o Gemini Robotics 1.5. O primeiro é um modelo de visão-linguagem (VLM) com raciocínio incorporado que analisa dados visuais e textuais, gera um plano de tarefas passo a passo e pode incorporar ferramentas externas, como a busca do Google, para contextualizar. O segundo é um modelo de visão-linguagem-ação (VLA), queEle converte instruções recebidas em ações físicas para o robô, ajustando-as simultaneamente com base no feedback visual e em seu próprio processo de “pensamento” para cada etapa. De acordo com Kanishka Rao, da DeepMind, o principal avanço foi dar ao robô a capacidade de imitar o raciocínio intuitivo humano — ou seja, pensar antes de agir.
Os desenvolvedores demonstraram como os novos modelos funcionam: um vídeo de um robô humanoide, o Apollo, equipado com o Gemini Robotics 1.5, fazendo as malas para uma viagem, enquanto outro robô, o Aloha 2 — ou melhor, um par de braços robóticos — separa o lixo.
Ambos os modelos são baseados na arquitetura fundamental do Gemini, mas são treinados adicionalmente usando dados que refletem interações com o mundo físico. Isso permite que os robôs executem tarefas complexas em várias etapas, aproximando-os do nível de agentes autônomos. O sistema também demonstra compatibilidade entre plataformas. Em particular, as habilidades incorporadas em um robô, como o Aloha 2 de dois braços, podem ser transferidas para outro, incluindo o humanoide Apollo, sem personalização adicional.
Apesar do potencial avanço tecnológico, as aplicações práticas da tecnologia ainda são limitadas. O modelo Gemini Robotics 1.5, que controla os robôs, está disponível apenas para testadores confiáveis. Enquanto isso, o Gemini Robotics-ER 1.5 já foi integrado ao Google AI Studio, permitindo que desenvolvedores gerem instruções para seus próprios experimentos com robôs fisicamente incorporados. No entanto, de acordo com Ryan Whitwam, da Ars Technica, ainda há um longo caminho a percorrer antes do advento de robôs de consumo capazes de realizar tarefas cotidianas.caminho.
