O chefe da divisão de IA do Google Deep Mind, Demis Hassabis, falou na conferência anual de desenvolvedores do Google I/O sobre uma versão inicial do que a empresa chama de assistente universal de IA. Estamos a falar de um algoritmo com o nome de código Project Astra, que é um assistente de IA multimodal que funciona online, pode “ver” o espaço envolvente, reconhecer objectos e ajudar na execução de diversas tarefas.
Fonte da imagem: Google
«Eu tenho essa ideia há muito tempo. Teremos este assistente universal. É multimodal, está sempre com você. Este assistente é simplesmente útil. Você se acostuma com o fato de que ele está sempre presente quando você precisa”, disse Hassabis durante a apresentação.
Junto com isso, o Google publicou um pequeno vídeo que demonstra alguns dos recursos da versão inicial do Projeto Astra. Um funcionário do escritório do Google em Londres ativa o assistente de IA e pede que ele avise quando “vê” algo que pode emitir sons. Depois disso, ela começa a girar o smartphone e quando um alto-falante em cima da mesa atinge a lente da câmera, o algoritmo informa isso. Em seguida, ela pede para descrever os giz de cera coloridos no copo sobre a mesa, ao que o algoritmo responde que com a ajuda deles você pode criar “criações coloridas”. Em seguida, a câmera do telefone é direcionada para a parte do monitor onde o código do programa é exibido naquele momento. A garota pergunta ao algoritmo de IA pelo que exatamente essa parte do código é responsável e o Projeto Astra quase instantaneamente dá a resposta correta. Em seguida, o assistente de IA determinou a localização do escritório do Google com base na paisagem “vista” da janela e realizou uma série de outras tarefas. Tudo isso aconteceu virtualmente online e pareceu muito impressionante.
De acordo com Hassabis, o Projeto Astra está muito mais próximo do que produtos similares anteriores de como um verdadeiro assistente de IA em tempo real deveria funcionar. O algoritmo é construído com base no modelo de linguagem grande Gemini 1.5 Pro, a rede neural mais poderosa do Google no momento. Porém, para melhorar a qualidade do assistente de IA, o Google teve que realizar otimizações para aumentar a velocidade de processamento das solicitações e reduzir o tempo de atraso na geração de respostas. Segundo Hassabis, os desenvolvedores têm trabalhado nos últimos seis meses justamente para agilizar o funcionamento do algoritmo, inclusive otimizando toda a infraestrutura a ele associada.
A expectativa é que no futuro o Projeto Astra apareça não só em smartphones, mas também em óculos inteligentes equipados com câmera. Como nesta fase estamos falando de uma versão inicial do assistente de IA, o momento exato de seu lançamento para as massas não foi anunciado.
O ambicioso RPG de ação e fantasia Fable (da série Forza Horizon), do estúdio britânico…
Em um estudo recente, analistas do BIS tentaram explicar que, no estágio atual de desenvolvimento…
A Poco anunciou o lançamento dos smartphones Poco M8 5G e Poco M8 Pro 5G.…
Apenas uma semana após sua conquista anterior, o Steam, serviço de distribuição digital da empresa…
Esta semana, o Google apresentou um novo padrão aberto, chamado Universal Commerce Protocol (UCP), projetado…
Os representantes da indústria de IA da China mostram-se bastante cautelosos quanto às perspectivas de…