Duas semanas atrás, a empresa americana Figure AI abandonou sua parceria com a OpenAI e ontem demonstrou a capacidade de seus robôs humanoides de entender comandos de linguagem natural processados ​​pelo modelo Helix VLA.

Fonte da imagem: Figura AI

O modelo VLA é uma combinação de um sistema de visão de máquina e um grande modelo de linguagem que permite que robôs sejam treinados para executar várias operações usando uma combinação de imagens visuais e comandos de linguagem. Na prática, isso faz com que robôs treinados sejam capazes de manipular objetos sob comando que eles nunca viram antes. Ao receber um comando de voz de forma natural, o robô começa a analisar visualmente o ambiente e então executa a tarefa atribuída levando em consideração os resultados da análise da situação.

O modelo Helix permite que os robôs Figure trabalhem em pares e interajam entre si ao realizar tarefas domésticas. Supõe-se que na vida cotidiana, os robôs podem trabalhar em pares, ajudando uns aos outros e aumentando a produtividade. A figura demonstra as capacidades de seus 02 robôs em um interior doméstico típico, que é tradicionalmente considerado um ambiente muito difícil para robôs. É muito mais fácil para os fabricantes criarem robôs que operem em um ambiente industrial mais controlado e previsível. Assim, o aparecimento no mercado de robôs humanoides domésticos “capazes” é considerado uma perspectiva mais distante.

Treinar robôs para executar tarefas cotidianas exige um investimento significativo em desenvolvimento de software ou milhares de experimentos. Neste caso, não é possível programá-los manualmente e, portanto, a única maneira de criar robôs que ajudem na vida cotidiana é fazê-los se autotreinar. Há muitas variáveis ​​no ambiente doméstico com as quais os robôs não conseguem lidar, então refinar o software exigirá um investimento significativo de tempo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *