O Google anunciou um novo assistente de IA – ele pode “ver” o espaço circundante e reconhecer objetos

O chefe da divisão de IA do Google Deep Mind, Demis Hassabis, falou na conferência anual de desenvolvedores do Google I/O sobre uma versão inicial do que a empresa chama de assistente universal de IA. Estamos a falar de um algoritmo com o nome de código Project Astra, que é um assistente de IA multimodal que funciona online, pode “ver” o espaço envolvente, reconhecer objectos e ajudar na execução de diversas tarefas.

Fonte da imagem: Google

«Eu tenho essa ideia há muito tempo. Teremos este assistente universal. É multimodal, está sempre com você. Este assistente é simplesmente útil. Você se acostuma com o fato de que ele está sempre presente quando você precisa”, disse Hassabis durante a apresentação.

Junto com isso, o Google publicou um pequeno vídeo que demonstra alguns dos recursos da versão inicial do Projeto Astra. Um funcionário do escritório do Google em Londres ativa o assistente de IA e pede que ele avise quando “vê” algo que pode emitir sons. Depois disso, ela começa a girar o smartphone e quando um alto-falante em cima da mesa atinge a lente da câmera, o algoritmo informa isso. Em seguida, ela pede para descrever os giz de cera coloridos no copo sobre a mesa, ao que o algoritmo responde que com a ajuda deles você pode criar “criações coloridas”. Em seguida, a câmera do telefone é direcionada para a parte do monitor onde o código do programa é exibido naquele momento. A garota pergunta ao algoritmo de IA pelo que exatamente essa parte do código é responsável e o Projeto Astra quase instantaneamente dá a resposta correta. Em seguida, o assistente de IA determinou a localização do escritório do Google com base na paisagem “vista” da janela e realizou uma série de outras tarefas. Tudo isso aconteceu virtualmente online e pareceu muito impressionante.

De acordo com Hassabis, o Projeto Astra está muito mais próximo do que produtos similares anteriores de como um verdadeiro assistente de IA em tempo real deveria funcionar. O algoritmo é construído com base no modelo de linguagem grande Gemini 1.5 Pro, a rede neural mais poderosa do Google no momento. Porém, para melhorar a qualidade do assistente de IA, o Google teve que realizar otimizações para aumentar a velocidade de processamento das solicitações e reduzir o tempo de atraso na geração de respostas. Segundo Hassabis, os desenvolvedores têm trabalhado nos últimos seis meses justamente para agilizar o funcionamento do algoritmo, inclusive otimizando toda a infraestrutura a ele associada.

A expectativa é que no futuro o Projeto Astra apareça não só em smartphones, mas também em óculos inteligentes equipados com câmera. Como nesta fase estamos falando de uma versão inicial do assistente de IA, o momento exato de seu lançamento para as massas não foi anunciado.

avalanche

Postagens recentes

AAEON lança o sistema CEXD-INTRBL baseado em Intel Panther Lake para desenvolvimento de robôs com IA.

A AAEON apresentou o CEXD-INTRBL, um computador industrial de formato compacto projetado para o desenvolvimento…

35 minutos atrás

A App Store está prosperando novamente — e a IA pode ter contribuído para isso.

Muitos acreditavam que a inteligência artificial acabaria com os aplicativos móveis. No entanto, o desenvolvimento…

35 minutos atrás

Honor, um robô humanoide, correu uma meia maratona mais rápido que um atleta profissional.

Na China, os robôs humanoides não estão apenas exibindo suas capacidades em apresentações festivas; sua…

8 horas atrás

A Samsung encerrou os pedidos de LPDDR4/4X e utilizará a capacidade liberada para produzir DRAM de 1 núcleo.

A Samsung Electronics anunciou oficialmente a suspensão da aceitação de novos pedidos de memória DRAM…

8 horas atrás