O Google criou e demonstrou na prática uma IA que faz os robôs pensarem primeiro e depois agirem.

O Google DeepMind revelou dois novos modelos de inteligência artificial (IA) para robótica, o Gemini Robotics 1.5 e o Gemini Robotics-ER 1.5, que juntos implementam uma abordagem na qual um robô primeiro “pensa” em uma tarefa e só então a executa. A tecnologia é baseada em sistemas de IA generativa e foi projetada para superar as limitações dos robôs atuais, que exigem ampla personalização para cada tarefa específica.

Fonte da imagem: Google

Sistemas de IA generativa capazes de criar texto, imagens, áudio e até vídeo estão se tornando cada vez mais comuns. Assim como esses modelos geram esses tipos de dados, eles também podem gerar sequências de ações para robôs. Esse é o princípio por trás do projeto Gemini Robotics, do Google DeepMind, que anunciou dois modelos complementares que permitem aos robôs “pensar” antes de agir. Embora os modelos de linguagem em larga escala (LLMs) tradicionais apresentem diversas limitações, a introdução do raciocínio simulado expandiu significativamente suas capacidades, e um avanço semelhante pode ocorrer agora na robótica.

A equipe do Google DeepMind acredita que a IA generativa tem o potencial de revolucionar a robótica, fornecendo aos robôs funcionalidades de uso geral. Ao contrário dos sistemas atuais, que exigem meses de ajustes para uma única tarefa altamente especializada e são pouco adaptáveis ​​a novas condições, as novas abordagens de IA permitem que os robôs operem em ambientes desconhecidos sem necessidade de reprogramação. Como observou Carolina Parada, chefe de robótica da DeepMind, os robôs atuais são “extremamente especializados e difíceis de implementar”.

Para implementar esse conceito, a DeepMind desenvolveu o Gemini Robotics-ER 1.5 e o Gemini Robotics 1.5. O primeiro é um modelo de visão-linguagem (VLM) com raciocínio incorporado que analisa dados visuais e textuais, gera um plano de tarefas passo a passo e pode incorporar ferramentas externas, como a busca do Google, para contextualizar. O segundo é um modelo de visão-linguagem-ação (VLA), queEle converte instruções recebidas em ações físicas para o robô, ajustando-as simultaneamente com base no feedback visual e em seu próprio processo de “pensamento” para cada etapa. De acordo com Kanishka Rao, da DeepMind, o principal avanço foi dar ao robô a capacidade de imitar o raciocínio intuitivo humano — ou seja, pensar antes de agir.

Os desenvolvedores demonstraram como os novos modelos funcionam: um vídeo de um robô humanoide, o Apollo, equipado com o Gemini Robotics 1.5, fazendo as malas para uma viagem, enquanto outro robô, o Aloha 2 — ou melhor, um par de braços robóticos — separa o lixo.

Ambos os modelos são baseados na arquitetura fundamental do Gemini, mas são treinados adicionalmente usando dados que refletem interações com o mundo físico. Isso permite que os robôs executem tarefas complexas em várias etapas, aproximando-os do nível de agentes autônomos. O sistema também demonstra compatibilidade entre plataformas. Em particular, as habilidades incorporadas em um robô, como o Aloha 2 de dois braços, podem ser transferidas para outro, incluindo o humanoide Apollo, sem personalização adicional.

Apesar do potencial avanço tecnológico, as aplicações práticas da tecnologia ainda são limitadas. O modelo Gemini Robotics 1.5, que controla os robôs, está disponível apenas para testadores confiáveis. Enquanto isso, o Gemini Robotics-ER 1.5 já foi integrado ao Google AI Studio, permitindo que desenvolvedores gerem instruções para seus próprios experimentos com robôs fisicamente incorporados. No entanto, de acordo com Ryan Whitwam, da Ars Technica, ainda há um longo caminho a percorrer antes do advento de robôs de consumo capazes de realizar tarefas cotidianas.caminho.

admin

Postagens recentes

A Lenovo apresentou um tablet com um controle de jogos e uma tela dobrável que se transforma em um laptop.

A Lenovo, maior fabricante de PCs da China, utiliza diversos eventos para apresentar seus desenvolvimentos…

2 horas atrás

A Broadcom promete produzir um milhão de chips 3D até 2027, desafiando a Nvidia.

A Broadcom anunciou avanços significativos no desenvolvimento da tecnologia de encapsulamento de chips 3D, com…

5 horas atrás

A Lenovo apresentou o conceito de laptop Yoga Book Pro 3D com duas telas e visualização 3D sem óculos.

A Lenovo apresentou o conceito de laptop Yoga Book Pro 3D na MWC 2026, que…

5 horas atrás

A Lenovo apresentou o conceito ThinkBook Modular AI PC, um laptop modular com duas telas e um teclado destacável.

A Lenovo apresentou o ThinkBook Modular AI PC, um notebook conceito que oferece uma abordagem…

5 horas atrás

Ryzen e 16 GB de DDR5: Como economizar memória sem perder 15% de desempenho / Processadores e Memória

Infelizmente, nos encontramos em uma situação em que a IA e os data centers consumiram…

6 horas atrás