Google está tornando os robôs mais inteligentes dizendo a eles o que podem e o que não podem fazer

Quem usa assistentes de voz inteligentes, como Alice, Siri, etc., provavelmente já percebeu que a tecnologia está ficando mais inteligente a cada dia. No entanto, a lacuna entre as tecnologias de controle de voz e sua implementação na robótica autônoma ainda é enorme, e há várias razões para isso.

Fonte da imagem: Haje Kamps/ TechCrunch

Ensinar um robô a realizar tarefas repetitivas em espaços controlados sem a presença de pessoas, embora não seja a tarefa mais fácil, mas bastante solucionável. É muito mais difícil ensinar um robô a resolver várias tarefas com base em comandos de voz em espaços onde as pessoas também estão presentes. Não estamos falando de modelos como aspiradores de pó robóticos, que são simplesmente programados para não tocar em nada no chão.

O Google fez algum progresso no nível de compreensão da linguagem natural por robôs que os humanos podem usar. Com a ajuda de seu sistema de processamento de linguagem natural Pathways Language Model (PaLM), a empresa conseguiu obter o processamento preciso de frases e a compreensão pelo robô do que uma pessoa realmente deseja, em vez de literalmente fazer o que foi dito.

A próxima tarefa é entender do que o robô é realmente capaz. O robô pode entender a solicitação para retirar um item da prateleira, mas o problema é que ele não conseguirá alcançá-lo porque a prateleira é muito alta. O Google chama de “capacidades” o que um robô pode fazer com mais ou menos sucesso. Essas podem ser tarefas simples (“vá em frente um metro”), tarefas mais complexas (“encontre uma lata de refrigerante na cozinha”), bem como ações complexas de várias etapas que exigem que o robô entenda suas próprias habilidades e o mundo ao seu redor. Por exemplo, “Ugh, eu derramei minha Coca no chão. Você poderia limpar a poça e me dar uma nova bebida?” Neste último caso, o robô precisará dividir a tarefa em várias etapas – determinar o local onde o líquido foi derramado, ir à cozinha, encontrar uma esponja, voltar, coletar água, voltar à cozinha para esprema a esponja, etc. Embora,

Outro problema que a robótica enfrenta é que os modelos de linguagem não estão vinculados ao mundo físico. Por exemplo, para o pedido “Eu derramei minha bebida, você pode ajudar?” o modelo de linguagem GPT-3 responde: “Você pode tentar usar um aspirador de pó.” E isso faz sentido para ela, pois o modelo de linguagem associa o aspirador de pó ao processo de limpeza. Embora o aspirador de pó não seja projetado para remover poças, tentar fazê-lo pode quebrar.

Segundo o Google, é importante ensinar os robôs a determinar o que eles podem e o que não podem fazer, e o que faz sentido fazer primeiro em várias situações.

avalanche

Postagens recentes

Anthropic concorda em pagar US$ 1,5 bilhão em processo de direitos autorais

Desde a disseminação dos sistemas de inteligência artificial, diversas obras de arte serviram como material…

2 horas atrás

OpenAI gastará US$ 115 bilhões em sua infraestrutura nos próximos anos

Como a OpenAI ainda é considerada uma startup, a empresa compartilha informações sobre despesas e…

2 horas atrás

A Qualcomm acredita que as tecnologias de processo da Intel ainda não são boas o suficiente para usá-las

Muitos especialistas concordam que a salvação dos negócios de fabricação da Intel depende em grande…

3 horas atrás

Europa multa Google em quase 3 mil milhões de euros por abusos publicitários

A Comissão Europeia multou o Google em € 2,95 bilhões por práticas anticompetitivas no setor…

9 horas atrás