O chefe da divisão de IA do Google Deep Mind, Demis Hassabis, falou na conferência anual de desenvolvedores do Google I/O sobre uma versão inicial do que a empresa chama de assistente universal de IA. Estamos a falar de um algoritmo com o nome de código Project Astra, que é um assistente de IA multimodal que funciona online, pode “ver” o espaço envolvente, reconhecer objectos e ajudar na execução de diversas tarefas.

Fonte da imagem: Google

«Eu tenho essa ideia há muito tempo. Teremos este assistente universal. É multimodal, está sempre com você. Este assistente é simplesmente útil. Você se acostuma com o fato de que ele está sempre presente quando você precisa”, disse Hassabis durante a apresentação.

Junto com isso, o Google publicou um pequeno vídeo que demonstra alguns dos recursos da versão inicial do Projeto Astra. Um funcionário do escritório do Google em Londres ativa o assistente de IA e pede que ele avise quando “vê” algo que pode emitir sons. Depois disso, ela começa a girar o smartphone e quando um alto-falante em cima da mesa atinge a lente da câmera, o algoritmo informa isso. Em seguida, ela pede para descrever os giz de cera coloridos no copo sobre a mesa, ao que o algoritmo responde que com a ajuda deles você pode criar “criações coloridas”. Em seguida, a câmera do telefone é direcionada para a parte do monitor onde o código do programa é exibido naquele momento. A garota pergunta ao algoritmo de IA pelo que exatamente essa parte do código é responsável e o Projeto Astra quase instantaneamente dá a resposta correta. Em seguida, o assistente de IA determinou a localização do escritório do Google com base na paisagem “vista” da janela e realizou uma série de outras tarefas. Tudo isso aconteceu virtualmente online e pareceu muito impressionante.

De acordo com Hassabis, o Projeto Astra está muito mais próximo do que produtos similares anteriores de como um verdadeiro assistente de IA em tempo real deveria funcionar. O algoritmo é construído com base no modelo de linguagem grande Gemini 1.5 Pro, a rede neural mais poderosa do Google no momento. Porém, para melhorar a qualidade do assistente de IA, o Google teve que realizar otimizações para aumentar a velocidade de processamento das solicitações e reduzir o tempo de atraso na geração de respostas. Segundo Hassabis, os desenvolvedores têm trabalhado nos últimos seis meses justamente para agilizar o funcionamento do algoritmo, inclusive otimizando toda a infraestrutura a ele associada.

A expectativa é que no futuro o Projeto Astra apareça não só em smartphones, mas também em óculos inteligentes equipados com câmera. Como nesta fase estamos falando de uma versão inicial do assistente de IA, o momento exato de seu lançamento para as massas não foi anunciado.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *