O CEO do Google DeepMind, Demis Hassabis, passou uma hora conversando com repórteres sobre as perspectivas do Gemini, o ritmo de desenvolvimento de IA forte (Inteligência Artificial Geral, AGI) e o crescimento geral da autoconsciência em redes neurais. Ele dedicou muita atenção ao modelo do Projeto Astra, que atualmente está em fase de testes preliminares. O Astra reconhece os usuários e lembra seu histórico de comunicação – esses recursos aparecerão em breve no Gemini Live.

Fonte da imagem: 9to5Google

Hassabis observou que o promissor modelo do Projeto Astra se distingue, em primeiro lugar, pela maior quantidade de memória. Em particular, ele lembra detalhes importantes de conversas anteriores para melhor contexto e personalização. Há também uma “memória de 10 minutos” separada do diálogo atual. Espera-se que esses recursos cheguem ao Gemini Live em breve. Hassabis enfatizou que o Google DeepMind “está treinando seu modelo de IA, chamado Gemini, não apenas para mostrar o mundo, mas para executar ações nele, como reservar voos e fazer compras online”.

Hassabis acredita que o prazo real para a AGI é de 5 a 10 anos, e que será “um sistema que realmente entende tudo ao seu redor de uma forma muito sutil e profunda e está inserido na sua vida cotidiana”.

Quando perguntado se o Google DeepMind está “trabalhando em um sistema hoje que será autoconsciente”, Hassabis disse que isso é teoricamente possível, mas ele não percebe nenhum dos sistemas atuais como sendo autoconsciente. Ele acredita que “todos devem tomar suas próprias decisões ao interagir com esses chatbots”.

Quando questionado se a autoconsciência é “seu objetivo” (no desenvolvimento de IA), ele disse que isso poderia acontecer implicitamente: “Esses sistemas podem ganhar algum senso de autoconsciência. É possível. Acho importante que esses sistemas entendam você, a si mesmo e aos outros. E isso provavelmente é o início de algo como autoconsciência.”

«Acredito que há duas razões pelas quais nos consideramos conscientes. Uma delas é que você exibe o comportamento de um ser consciente, muito semelhante ao meu comportamento. Mas a segunda razão é que você está trabalhando no mesmo substrato. Somos feitos da mesma substância de carbono que nossos cérebros moles. Obviamente, as máquinas funcionam com silício. Então, mesmo que eles apresentem o mesmo comportamento, e mesmo que digam as mesmas coisas, isso não significa necessariamente que esse senso de consciência que temos será o mesmo que eles terão”, concluiu Hassabis.

avalanche

Postagens recentes

Uma inteligência artificial desafiou cientistas ao escrever um artigo para uma revista científica do zero, com aprovação para publicação.

Na conferência ICLR 2025, um grupo de cientistas demonstrou a capacidade da IA ​​de gerar,…

13 minutos atrás

Foremay revela SSD espacial resistente à radiação da série InterStellar

A Foremay anunciou sua família de SSDs InterStellar, projetada para uso em satélites comerciais e…

47 minutos atrás

Jackpot: A segunda temporada de Fallout se tornou um dos maiores sucessos da Amazon.

O Hollywood Reporter, citando a Amazon MGM Studios, compartilhou informações sobre o sucesso da segunda…

1 hora atrás

A Samsung pretende dominar a tecnologia de processo de 1 nanômetro e introduzir folhas em formato de garfo em transistores até 2030.

A escassez de capacidade da TSMC está abrindo novas oportunidades para a rival Samsung Electronics…

1 hora atrás

A Microsoft forçou IAs a testarem umas às outras em pesquisa do Copilot.

A Microsoft introduziu a capacidade de usar vários modelos de IA em um único fluxo…

1 hora atrás

A Meta começou a testar uma assinatura do Instagram Plus com Stories expandidos e mais recursos.

A Meta começou a testar uma assinatura paga para recursos adicionais do Instagram em alguns…

2 horas atrás