Google está tornando os robôs mais inteligentes dizendo a eles o que podem e o que não podem fazer

Quem usa assistentes de voz inteligentes, como Alice, Siri, etc., provavelmente já percebeu que a tecnologia está ficando mais inteligente a cada dia. No entanto, a lacuna entre as tecnologias de controle de voz e sua implementação na robótica autônoma ainda é enorme, e há várias razões para isso.

Fonte da imagem: Haje Kamps/ TechCrunch

Ensinar um robô a realizar tarefas repetitivas em espaços controlados sem a presença de pessoas, embora não seja a tarefa mais fácil, mas bastante solucionável. É muito mais difícil ensinar um robô a resolver várias tarefas com base em comandos de voz em espaços onde as pessoas também estão presentes. Não estamos falando de modelos como aspiradores de pó robóticos, que são simplesmente programados para não tocar em nada no chão.

O Google fez algum progresso no nível de compreensão da linguagem natural por robôs que os humanos podem usar. Com a ajuda de seu sistema de processamento de linguagem natural Pathways Language Model (PaLM), a empresa conseguiu obter o processamento preciso de frases e a compreensão pelo robô do que uma pessoa realmente deseja, em vez de literalmente fazer o que foi dito.

A próxima tarefa é entender do que o robô é realmente capaz. O robô pode entender a solicitação para retirar um item da prateleira, mas o problema é que ele não conseguirá alcançá-lo porque a prateleira é muito alta. O Google chama de “capacidades” o que um robô pode fazer com mais ou menos sucesso. Essas podem ser tarefas simples (“vá em frente um metro”), tarefas mais complexas (“encontre uma lata de refrigerante na cozinha”), bem como ações complexas de várias etapas que exigem que o robô entenda suas próprias habilidades e o mundo ao seu redor. Por exemplo, “Ugh, eu derramei minha Coca no chão. Você poderia limpar a poça e me dar uma nova bebida?” Neste último caso, o robô precisará dividir a tarefa em várias etapas – determinar o local onde o líquido foi derramado, ir à cozinha, encontrar uma esponja, voltar, coletar água, voltar à cozinha para esprema a esponja, etc. Embora,

Outro problema que a robótica enfrenta é que os modelos de linguagem não estão vinculados ao mundo físico. Por exemplo, para o pedido “Eu derramei minha bebida, você pode ajudar?” o modelo de linguagem GPT-3 responde: “Você pode tentar usar um aspirador de pó.” E isso faz sentido para ela, pois o modelo de linguagem associa o aspirador de pó ao processo de limpeza. Embora o aspirador de pó não seja projetado para remover poças, tentar fazê-lo pode quebrar.

Segundo o Google, é importante ensinar os robôs a determinar o que eles podem e o que não podem fazer, e o que faz sentido fazer primeiro em várias situações.

avalanche

Postagens recentes

A Microsoft confirmou o desenvolvimento de um console Xbox chamado “Project Helix” com suporte para jogos de PC.

A chefe da divisão de jogos da Microsoft, Asha Sharma, confirmou o desenvolvimento do console…

3 horas atrás

A inteligência artificial impulsionou repentinamente a demanda por CPUs, um aumento que a AMD e a Intel não previram.

Na Conferência de Tecnologia, Mídia e Telecomunicações de 2026 da Morgan Stanley, a AMD e…

7 horas atrás

“Quebra-cabeça em alta velocidade”: Ruiner 2, o jogo de ação cyberpunk, é anunciado com elementos cooperativos e de RPG não presentes no primeiro jogo.

A desenvolvedora Reikon Games anunciou Ruiner 2, sequência do jogo de ação cyberpunk de 2017,…

10 horas atrás

Um fabricante chinês popular de PCs acessíveis foi flagrado substituindo secretamente os processadores de laptops.

A Chuwi, uma popular fabricante chinesa de computadores e eletrônicos, foi flagrada enganando seus clientes.…

10 horas atrás