O Google anunciou um novo assistente de IA – ele pode “ver” o espaço circundante e reconhecer objetos

O chefe da divisão de IA do Google Deep Mind, Demis Hassabis, falou na conferência anual de desenvolvedores do Google I/O sobre uma versão inicial do que a empresa chama de assistente universal de IA. Estamos a falar de um algoritmo com o nome de código Project Astra, que é um assistente de IA multimodal que funciona online, pode “ver” o espaço envolvente, reconhecer objectos e ajudar na execução de diversas tarefas.

Fonte da imagem: Google

«Eu tenho essa ideia há muito tempo. Teremos este assistente universal. É multimodal, está sempre com você. Este assistente é simplesmente útil. Você se acostuma com o fato de que ele está sempre presente quando você precisa”, disse Hassabis durante a apresentação.

Junto com isso, o Google publicou um pequeno vídeo que demonstra alguns dos recursos da versão inicial do Projeto Astra. Um funcionário do escritório do Google em Londres ativa o assistente de IA e pede que ele avise quando “vê” algo que pode emitir sons. Depois disso, ela começa a girar o smartphone e quando um alto-falante em cima da mesa atinge a lente da câmera, o algoritmo informa isso. Em seguida, ela pede para descrever os giz de cera coloridos no copo sobre a mesa, ao que o algoritmo responde que com a ajuda deles você pode criar “criações coloridas”. Em seguida, a câmera do telefone é direcionada para a parte do monitor onde o código do programa é exibido naquele momento. A garota pergunta ao algoritmo de IA pelo que exatamente essa parte do código é responsável e o Projeto Astra quase instantaneamente dá a resposta correta. Em seguida, o assistente de IA determinou a localização do escritório do Google com base na paisagem “vista” da janela e realizou uma série de outras tarefas. Tudo isso aconteceu virtualmente online e pareceu muito impressionante.

De acordo com Hassabis, o Projeto Astra está muito mais próximo do que produtos similares anteriores de como um verdadeiro assistente de IA em tempo real deveria funcionar. O algoritmo é construído com base no modelo de linguagem grande Gemini 1.5 Pro, a rede neural mais poderosa do Google no momento. Porém, para melhorar a qualidade do assistente de IA, o Google teve que realizar otimizações para aumentar a velocidade de processamento das solicitações e reduzir o tempo de atraso na geração de respostas. Segundo Hassabis, os desenvolvedores têm trabalhado nos últimos seis meses justamente para agilizar o funcionamento do algoritmo, inclusive otimizando toda a infraestrutura a ele associada.

A expectativa é que no futuro o Projeto Astra apareça não só em smartphones, mas também em óculos inteligentes equipados com câmera. Como nesta fase estamos falando de uma versão inicial do assistente de IA, o momento exato de seu lançamento para as massas não foi anunciado.

avalanche

Postagens recentes

O chefe da Samsung vai limpar a empresa da alta administração desajeitada na área de chips

Uma década depois de o herdeiro de terceira geração da Samsung, Lee Jae-yong, ter assumido…

3 horas atrás

World of Warcraft completa 20 anos e ainda é o RPG mais popular do mundo.

Há exatos 20 anos, em 23 de novembro de 2004, World of Warcraft foi lançado,…

5 horas atrás

Tesla é reconhecida como a marca de automóveis mais perigosa – Elon Musk também é responsável por isso

Um novo relatório de analistas da iSeeCars mostrou que, entre as marcas de automóveis, os…

6 horas atrás