Waymo, uma subsidiária da Alphabet, introduziu uma nova abordagem para treinar seus veículos autônomos usando o modelo Gemini, um grande modelo de linguagem multimodal (MLLM) do Google. O modelo irá melhorar a navegação dos carros autônomos e permitir-lhes lidar melhor com situações rodoviárias complexas.
Fonte da imagem: waymo.com
Em um novo artigo de pesquisa, Waymo definiu seu desenvolvimento como um “modelo multimodal ponta a ponta para direção autônoma” (EMMA), que processa dados de sensores e ajuda os robotáxis a tomar decisões sobre a direção da viagem, evitando obstáculos. De acordo com o The Verge, a Waymo há muito enfatiza sua vantagem estratégica devido ao acesso à pesquisa científica na área de inteligência artificial (IA) do Google DeepMind, anteriormente propriedade da empresa britânica DeepMind Technologies.
O novo sistema EMMA representa uma abordagem fundamentalmente diferente para a formação de veículos autónomos. Em vez dos sistemas modulares tradicionais que separam as funções em percepção, planejamento de rotas e outras tarefas, o EMMA oferece uma abordagem unificada que permitirá que os dados sejam processados de forma holística, ajudará a evitar erros que ocorrem durante a transferência de dados entre módulos e melhorará a adaptação a estradas novas e desconhecidas. condições em tempo real.
Um dos principais benefícios da utilização de modelos MLLM, em particular Gemini, é a sua capacidade de generalizar o conhecimento obtido a partir de grandes quantidades de dados obtidos na Internet. Isto permite que os modelos se adaptem melhor a situações inusitadas na estrada, como o aparecimento inesperado de animais ou trabalhos de reparação. Além disso, os modelos treinados no Gemini são capazes de “cadeia de raciocínio”. É uma técnica que ajuda a dividir problemas complexos em etapas sequenciais e lógicas, melhorando a tomada de decisões.
Apesar dos seus sucessos, a Waymo reconhece que o EMMA tem as suas limitações. Por exemplo, o modelo ainda não suporta o processamento de dados 3D de sensores como lidar ou radar devido à alta complexidade computacional. Além disso, o EMMA só pode processar um número limitado de quadros de imagem por vez. Ressalta-se que serão necessárias mais pesquisas para superar todas essas limitações antes da plena implementação do modelo em condições reais.
A Waymo também reconhece os riscos associados ao uso do MLLM para dirigir veículos autônomos. Modelos como Gêmeos podem cometer erros ou “alucinar” em tarefas simples, o que obviamente é inaceitável na estrada. No entanto, espera-se que novas pesquisas e melhorias na arquitetura de modelos de IA para condução autônoma superem esses problemas.
Embora alguns especialistas apontem para condições desfavoráveis para ofertas públicas iniciais (IPOs), empresas com necessidades…
No final de janeiro, foi anunciado que a SpaceX, empresa aeroespacial de Elon Musk, programaria…
Segundo Mark Gurman, da Bloomberg, a Apple planeja lançar o primeiro aplicativo Siri independente como…
A OpenAI decidiu inesperadamente encerrar seu aplicativo de criação de vídeos com inteligência artificial, o…
As LPUs da Groq são fundamentalmente diferentes dos aceleradores de IA da NVIDIA, mas são…
A Razer apresentou o mouse gamer sem fio Viper V4 Pro. O novo mouse conta…