O Google criou e demonstrou na prática uma IA que faz os robôs pensarem primeiro e depois agirem.

O Google DeepMind revelou dois novos modelos de inteligência artificial (IA) para robótica, o Gemini Robotics 1.5 e o Gemini Robotics-ER 1.5, que juntos implementam uma abordagem na qual um robô primeiro “pensa” em uma tarefa e só então a executa. A tecnologia é baseada em sistemas de IA generativa e foi projetada para superar as limitações dos robôs atuais, que exigem ampla personalização para cada tarefa específica.

Fonte da imagem: Google

Sistemas de IA generativa capazes de criar texto, imagens, áudio e até vídeo estão se tornando cada vez mais comuns. Assim como esses modelos geram esses tipos de dados, eles também podem gerar sequências de ações para robôs. Esse é o princípio por trás do projeto Gemini Robotics, do Google DeepMind, que anunciou dois modelos complementares que permitem aos robôs “pensar” antes de agir. Embora os modelos de linguagem em larga escala (LLMs) tradicionais apresentem diversas limitações, a introdução do raciocínio simulado expandiu significativamente suas capacidades, e um avanço semelhante pode ocorrer agora na robótica.

A equipe do Google DeepMind acredita que a IA generativa tem o potencial de revolucionar a robótica, fornecendo aos robôs funcionalidades de uso geral. Ao contrário dos sistemas atuais, que exigem meses de ajustes para uma única tarefa altamente especializada e são pouco adaptáveis ​​a novas condições, as novas abordagens de IA permitem que os robôs operem em ambientes desconhecidos sem necessidade de reprogramação. Como observou Carolina Parada, chefe de robótica da DeepMind, os robôs atuais são “extremamente especializados e difíceis de implementar”.

Para implementar esse conceito, a DeepMind desenvolveu o Gemini Robotics-ER 1.5 e o Gemini Robotics 1.5. O primeiro é um modelo de visão-linguagem (VLM) com raciocínio incorporado que analisa dados visuais e textuais, gera um plano de tarefas passo a passo e pode incorporar ferramentas externas, como a busca do Google, para contextualizar. O segundo é um modelo de visão-linguagem-ação (VLA), queEle converte instruções recebidas em ações físicas para o robô, ajustando-as simultaneamente com base no feedback visual e em seu próprio processo de “pensamento” para cada etapa. De acordo com Kanishka Rao, da DeepMind, o principal avanço foi dar ao robô a capacidade de imitar o raciocínio intuitivo humano — ou seja, pensar antes de agir.

Os desenvolvedores demonstraram como os novos modelos funcionam: um vídeo de um robô humanoide, o Apollo, equipado com o Gemini Robotics 1.5, fazendo as malas para uma viagem, enquanto outro robô, o Aloha 2 — ou melhor, um par de braços robóticos — separa o lixo.

Ambos os modelos são baseados na arquitetura fundamental do Gemini, mas são treinados adicionalmente usando dados que refletem interações com o mundo físico. Isso permite que os robôs executem tarefas complexas em várias etapas, aproximando-os do nível de agentes autônomos. O sistema também demonstra compatibilidade entre plataformas. Em particular, as habilidades incorporadas em um robô, como o Aloha 2 de dois braços, podem ser transferidas para outro, incluindo o humanoide Apollo, sem personalização adicional.

Apesar do potencial avanço tecnológico, as aplicações práticas da tecnologia ainda são limitadas. O modelo Gemini Robotics 1.5, que controla os robôs, está disponível apenas para testadores confiáveis. Enquanto isso, o Gemini Robotics-ER 1.5 já foi integrado ao Google AI Studio, permitindo que desenvolvedores gerem instruções para seus próprios experimentos com robôs fisicamente incorporados. No entanto, de acordo com Ryan Whitwam, da Ars Technica, ainda há um longo caminho a percorrer antes do advento de robôs de consumo capazes de realizar tarefas cotidianas.caminho.

admin

Postagens recentes

As TVs NanoLED poderão ser comercializadas em 2029.

A Nanosys, empresa que inventou a tecnologia de telas de pontos quânticos, revelou os mais…

22 minutos atrás

A Amazon confirmou a data de encerramento de New World: Aeternum, e os desenvolvedores de Rust se ofereceram para salvar o jogo e dar-lhe vida eterna.

Tendo ficado sem suporte de conteúdo no final do ano passado, o outrora promissor New…

22 minutos atrás

O Google apresentou o TranslateGemma, uma família de modelos de IA de código aberto para tradução local em 55 idiomas.

O Google lançou três versões do seu modelo de IA TranslateGemma para oferecer suporte à…

22 minutos atrás

Os 25 artigos mais populares da Wikipédia de todos os tempos foram revelados.

A Fundação Wikimedia, organização sem fins lucrativos que administra o projeto Wikipédia, revelou à Popular…

2 horas atrás

Um laser de fônons de chip único foi criado nos EUA para representar um avanço nas futuras comunicações sem fio.

Uma equipe de pesquisadores dos EUA desenvolveu um novo tipo de laser que gera ondas…

2 horas atrás

A OpenAI investiu na Merge Labs, startup de implantes cerebrais de Sam Altman.

A OpenAI investiu na startup do CEO Sam Altman, a Merge Labs, que está desenvolvendo…

3 horas atrás