Waymo e Gemini ensinarão robotáxis a lidar com situações difíceis de trânsito

Waymo, uma subsidiária da Alphabet, introduziu uma nova abordagem para treinar seus veículos autônomos usando o modelo Gemini, um grande modelo de linguagem multimodal (MLLM) do Google. O modelo irá melhorar a navegação dos carros autônomos e permitir-lhes lidar melhor com situações rodoviárias complexas.

Fonte da imagem: waymo.com

Em um novo artigo de pesquisa, Waymo definiu seu desenvolvimento como um “modelo multimodal ponta a ponta para direção autônoma” (EMMA), que processa dados de sensores e ajuda os robotáxis a tomar decisões sobre a direção da viagem, evitando obstáculos. De acordo com o The Verge, a Waymo há muito enfatiza sua vantagem estratégica devido ao acesso à pesquisa científica na área de inteligência artificial (IA) do Google DeepMind, anteriormente propriedade da empresa britânica DeepMind Technologies.

O novo sistema EMMA representa uma abordagem fundamentalmente diferente para a formação de veículos autónomos. Em vez dos sistemas modulares tradicionais que separam as funções em percepção, planejamento de rotas e outras tarefas, o EMMA oferece uma abordagem unificada que permitirá que os dados sejam processados ​​de forma holística, ajudará a evitar erros que ocorrem durante a transferência de dados entre módulos e melhorará a adaptação a estradas novas e desconhecidas. condições em tempo real.

Um dos principais benefícios da utilização de modelos MLLM, em particular Gemini, é a sua capacidade de generalizar o conhecimento obtido a partir de grandes quantidades de dados obtidos na Internet. Isto permite que os modelos se adaptem melhor a situações inusitadas na estrada, como o aparecimento inesperado de animais ou trabalhos de reparação. Além disso, os modelos treinados no Gemini são capazes de “cadeia de raciocínio”. É uma técnica que ajuda a dividir problemas complexos em etapas sequenciais e lógicas, melhorando a tomada de decisões.

Apesar dos seus sucessos, a Waymo reconhece que o EMMA tem as suas limitações. Por exemplo, o modelo ainda não suporta o processamento de dados 3D de sensores como lidar ou radar devido à alta complexidade computacional. Além disso, o EMMA só pode processar um número limitado de quadros de imagem por vez. Ressalta-se que serão necessárias mais pesquisas para superar todas essas limitações antes da plena implementação do modelo em condições reais.

A Waymo também reconhece os riscos associados ao uso do MLLM para dirigir veículos autônomos. Modelos como Gêmeos podem cometer erros ou “alucinar” em tarefas simples, o que obviamente é inaceitável na estrada. No entanto, espera-se que novas pesquisas e melhorias na arquitetura de modelos de IA para condução autônoma superem esses problemas.

avalanche

Postagens recentes

Honor, um robô humanoide, correu uma meia maratona mais rápido que um atleta profissional.

Na China, os robôs humanoides não estão apenas exibindo suas capacidades em apresentações festivas; sua…

1 hora atrás

A Samsung encerrou os pedidos de LPDDR4/4X e utilizará a capacidade liberada para produzir DRAM de 1 núcleo.

A Samsung Electronics anunciou oficialmente a suspensão da aceitação de novos pedidos de memória DRAM…

1 hora atrás

Após abandonar a produção de veículos elétricos, o projeto Afeela, da Sony e da Honda, continuará.

A Sony buscava há tempos aplicar sua expertise na produção de câmeras e sensores de…

2 horas atrás

O preço das ações da Intel está apenas 8% abaixo de sua máxima histórica de 2000.

Durante o pregão de sexta-feira, as ações da Intel subiram apenas 1,5%, para US$ 69,55,…

3 horas atrás

Sansão — “Problemas” Não em Nossa Casa. Resenha

Intel Core i5-10505 3.2 GHz / AMD Ryzen 5 3600 3.6 GHz, 16 GB de…

9 horas atrás