A empresa americana de robótica Figure demonstrou o trabalho coordenado de suas máquinas humanoides. Em um vídeo publicado pela empresa, dois robôs entraram em um quarto, recolheram objetos espalhados e arrumaram a cama.
Fonte da imagem: youtube.com/@figureai
Os robôs Figure penduraram um casaco, fecharam um laptop, tiraram os fones de ouvido e, em seguida, arrumaram a cama juntos, coordenando suas ações com acenos de cabeça, levantando e alisando o cobertor. A dupla completou a tarefa em menos de dois minutos. As máquinas são controladas pelo modelo de inteligência artificial Helix-02. Um aspecto fundamental da demonstração foi a coordenação das ações conjuntas dos robôs, que foram realizadas sem um planejador comum, controlador central ou mesmo um canal de comunicação direta — simples acenos de cabeça foram suficientes. Cada robô utilizou suas próprias câmeras, um sistema para interpretar o ambiente e determinar as intenções do outro robô com base em seus movimentos. A cada ação, o cenário para as máquinas mudava dinamicamente, forçando-as a adaptar continuamente suas decisões para atingir um objetivo comum.
A tarefa mais desafiadora foi lidar com um objeto grande e deformável — um cobertor. Ao contrário de objetos rígidos, a roupa de cama não possui geometria estável ou pontos de apoio predeterminados. Os robôs precisavam prever as ações um do outro, ajustando constantemente a pegada, a postura e os movimentos conforme o tecido se dobrava, esticava e se deslocava sob a tensão combinada. Para viabilizar a colaboração, o sistema de IA Helix, que já inclui tarefas como limpeza doméstica e dobrar roupas, precisou ser modificado para permitir que as duas máquinas trabalhassem juntas com base apenas em dados visuais.
O sistema de IA Helix atualizado adiciona controle corporal completo baseado na percepção aos robôs, ajudando a melhorar a navegação em ambientes complexos, como terrenos irregulares e escadas.Anteriormente, os robôs tinham consciência dos seus próprios movimentos e posições articulares, sem levar em consideração o ambiente ao redor. Agora, os dados de entrada provenientes de câmeras estéreo laterais são analisados, convertendo imagens RGB em um modelo espacial 3D que representa o ambiente em tempo real. Como resultado, os robôs “veem” e “sentem” o ambiente simultaneamente enquanto se movem.
O sistema foi desenvolvido utilizando aprendizado por reforço em uma simulação computacional baseada em uma ampla gama de terrenos e condições ambientais aleatórias. Nenhuma calibração ou ajuste fino adicional foi necessário na transição para condições do mundo real. A arquitetura aprimorada ajudou os robôs a se tornarem mais estáveis ao caminhar, mantendo o equilíbrio em escadas e outras superfícies, mesmo em condições de iluminação variáveis. Além de simplesmente caminhar, eles agora podem executar uma ampla gama de ações.
A Dell anunciou o servidor PowerEdge XE9785, baseado em hardware AMD, projetado para cargas de…
O desempenho irregular durante uma demonstração de jogabilidade em setembro para o jogo de ação…
Em seu relatório financeiro referente ao primeiro trimestre do ano civil de 2026, a editora…
Os desenvolvedores do kernel do Linux estão considerando fornecer aos administradores de sistema um "botão…
A OpenAI anunciou o lançamento do projeto de cibersegurança Daybreak — uma resposta clara à…
A Basis, maior desenvolvedora russa de soluções dinâmicas para gerenciamento de infraestrutura de TI, lançou…