O Google criou e demonstrou na prática uma IA que faz os robôs pensarem primeiro e depois agirem.

O Google DeepMind revelou dois novos modelos de inteligência artificial (IA) para robótica, o Gemini Robotics 1.5 e o Gemini Robotics-ER 1.5, que juntos implementam uma abordagem na qual um robô primeiro “pensa” em uma tarefa e só então a executa. A tecnologia é baseada em sistemas de IA generativa e foi projetada para superar as limitações dos robôs atuais, que exigem ampla personalização para cada tarefa específica.

Fonte da imagem: Google

Sistemas de IA generativa capazes de criar texto, imagens, áudio e até vídeo estão se tornando cada vez mais comuns. Assim como esses modelos geram esses tipos de dados, eles também podem gerar sequências de ações para robôs. Esse é o princípio por trás do projeto Gemini Robotics, do Google DeepMind, que anunciou dois modelos complementares que permitem aos robôs “pensar” antes de agir. Embora os modelos de linguagem em larga escala (LLMs) tradicionais apresentem diversas limitações, a introdução do raciocínio simulado expandiu significativamente suas capacidades, e um avanço semelhante pode ocorrer agora na robótica.

A equipe do Google DeepMind acredita que a IA generativa tem o potencial de revolucionar a robótica, fornecendo aos robôs funcionalidades de uso geral. Ao contrário dos sistemas atuais, que exigem meses de ajustes para uma única tarefa altamente especializada e são pouco adaptáveis ​​a novas condições, as novas abordagens de IA permitem que os robôs operem em ambientes desconhecidos sem necessidade de reprogramação. Como observou Carolina Parada, chefe de robótica da DeepMind, os robôs atuais são “extremamente especializados e difíceis de implementar”.

Para implementar esse conceito, a DeepMind desenvolveu o Gemini Robotics-ER 1.5 e o Gemini Robotics 1.5. O primeiro é um modelo de visão-linguagem (VLM) com raciocínio incorporado que analisa dados visuais e textuais, gera um plano de tarefas passo a passo e pode incorporar ferramentas externas, como a busca do Google, para contextualizar. O segundo é um modelo de visão-linguagem-ação (VLA), queEle converte instruções recebidas em ações físicas para o robô, ajustando-as simultaneamente com base no feedback visual e em seu próprio processo de “pensamento” para cada etapa. De acordo com Kanishka Rao, da DeepMind, o principal avanço foi dar ao robô a capacidade de imitar o raciocínio intuitivo humano — ou seja, pensar antes de agir.

Os desenvolvedores demonstraram como os novos modelos funcionam: um vídeo de um robô humanoide, o Apollo, equipado com o Gemini Robotics 1.5, fazendo as malas para uma viagem, enquanto outro robô, o Aloha 2 — ou melhor, um par de braços robóticos — separa o lixo.

Ambos os modelos são baseados na arquitetura fundamental do Gemini, mas são treinados adicionalmente usando dados que refletem interações com o mundo físico. Isso permite que os robôs executem tarefas complexas em várias etapas, aproximando-os do nível de agentes autônomos. O sistema também demonstra compatibilidade entre plataformas. Em particular, as habilidades incorporadas em um robô, como o Aloha 2 de dois braços, podem ser transferidas para outro, incluindo o humanoide Apollo, sem personalização adicional.

Apesar do potencial avanço tecnológico, as aplicações práticas da tecnologia ainda são limitadas. O modelo Gemini Robotics 1.5, que controla os robôs, está disponível apenas para testadores confiáveis. Enquanto isso, o Gemini Robotics-ER 1.5 já foi integrado ao Google AI Studio, permitindo que desenvolvedores gerem instruções para seus próprios experimentos com robôs fisicamente incorporados. No entanto, de acordo com Ryan Whitwam, da Ars Technica, ainda há um longo caminho a percorrer antes do advento de robôs de consumo capazes de realizar tarefas cotidianas.caminho.

admin

Postagens recentes

Elon Musk finalmente desistiu da missão ambiental da Tesla.

Como a Tesla é uma empresa de capital aberto e o preço de suas ações…

3 horas atrás

O presidente da Wingtech, empresa chinesa, manifestou o desejo de retomar o controle da Nexperia, empresa que foi apreendida pelos Países Baixos.

Os problemas da indústria automotiva neste ano foram agravados pela situação em torno da empresa…

4 horas atrás

A Huawei pretende fornecer seus aceleradores de IA para a Coreia do Sul.

A prioridade atual da Huawei é a substituição de importações na indústria chinesa de IA,…

4 horas atrás

O acordo da Nvidia com a Groq foi concebido para evitar problemas com as leis antitruste.

O princípio de que "tempo é dinheiro" é mais relevante do que nunca no campo…

5 horas atrás

Outra GeForce RTX 5090 sofreu danos significativos depois que um conector de alimentação 12V-2×6 pegou fogo.

Um usuário do Reddit relatou um incêndio em um conector de alimentação 12V-2x6 de 12+4…

6 horas atrás

Há 50 anos, a inteligência artificial derrotou o campeão soviético de xadrez pela primeira vez.

Em 1975, uma aposta curiosa foi feita na URSS entre cientistas do Instituto de Ciências…

11 horas atrás