O Google anunciou um novo assistente de IA – ele pode “ver” o espaço circundante e reconhecer objetos

O chefe da divisão de IA do Google Deep Mind, Demis Hassabis, falou na conferência anual de desenvolvedores do Google I/O sobre uma versão inicial do que a empresa chama de assistente universal de IA. Estamos a falar de um algoritmo com o nome de código Project Astra, que é um assistente de IA multimodal que funciona online, pode “ver” o espaço envolvente, reconhecer objectos e ajudar na execução de diversas tarefas.

Fonte da imagem: Google

«Eu tenho essa ideia há muito tempo. Teremos este assistente universal. É multimodal, está sempre com você. Este assistente é simplesmente útil. Você se acostuma com o fato de que ele está sempre presente quando você precisa”, disse Hassabis durante a apresentação.

Junto com isso, o Google publicou um pequeno vídeo que demonstra alguns dos recursos da versão inicial do Projeto Astra. Um funcionário do escritório do Google em Londres ativa o assistente de IA e pede que ele avise quando “vê” algo que pode emitir sons. Depois disso, ela começa a girar o smartphone e quando um alto-falante em cima da mesa atinge a lente da câmera, o algoritmo informa isso. Em seguida, ela pede para descrever os giz de cera coloridos no copo sobre a mesa, ao que o algoritmo responde que com a ajuda deles você pode criar “criações coloridas”. Em seguida, a câmera do telefone é direcionada para a parte do monitor onde o código do programa é exibido naquele momento. A garota pergunta ao algoritmo de IA pelo que exatamente essa parte do código é responsável e o Projeto Astra quase instantaneamente dá a resposta correta. Em seguida, o assistente de IA determinou a localização do escritório do Google com base na paisagem “vista” da janela e realizou uma série de outras tarefas. Tudo isso aconteceu virtualmente online e pareceu muito impressionante.

De acordo com Hassabis, o Projeto Astra está muito mais próximo do que produtos similares anteriores de como um verdadeiro assistente de IA em tempo real deveria funcionar. O algoritmo é construído com base no modelo de linguagem grande Gemini 1.5 Pro, a rede neural mais poderosa do Google no momento. Porém, para melhorar a qualidade do assistente de IA, o Google teve que realizar otimizações para aumentar a velocidade de processamento das solicitações e reduzir o tempo de atraso na geração de respostas. Segundo Hassabis, os desenvolvedores têm trabalhado nos últimos seis meses justamente para agilizar o funcionamento do algoritmo, inclusive otimizando toda a infraestrutura a ele associada.

A expectativa é que no futuro o Projeto Astra apareça não só em smartphones, mas também em óculos inteligentes equipados com câmera. Como nesta fase estamos falando de uma versão inicial do assistente de IA, o momento exato de seu lançamento para as massas não foi anunciado.

avalanche

Postagens recentes

O próximo Payday será exclusivo para realidade virtual – o primeiro trailer e detalhes revelam Payday: Aces High.

O estúdio sueco Fast Travel Games (Mannequin, Vampire: The Masquerade — Justice), em parceria com…

1 hora atrás

A Epic Games vai demitir 1.000 funcionários porque Fortnite não está mais gerando a mesma receita.

A perda de jogadores do popular jogo battle royale gratuito da Epic Games, Fortnite, continua.…

3 horas atrás

A Nvidia lançou um driver GeForce com otimizações para os jogos mais recentes, incluindo DLSS, RT e Reflex.

A Nvidia lançou o driver gráfico GeForce Game Ready 595.97 WHQL mais recente. Nas notas…

4 horas atrás

A Broadcom reclamou das restrições no fornecimento de chips e apontou a capacidade da TSMC como o gargalo.

A Broadcom, fabricante de chips, relatou restrições na cadeia de suprimentos em todo o setor…

4 horas atrás

O Spotify lançou um novo recurso chamado SongDNA, que revelará detalhes sobre como as faixas são criadas.

O Spotify lançou uma nova funcionalidade que pode mudar significativamente a forma como os usuários…

4 horas atrás