O CEO do Google DeepMind, Demis Hassabis, passou uma hora conversando com repórteres sobre as perspectivas do Gemini, o ritmo de desenvolvimento de IA forte (Inteligência Artificial Geral, AGI) e o crescimento geral da autoconsciência em redes neurais. Ele dedicou muita atenção ao modelo do Projeto Astra, que atualmente está em fase de testes preliminares. O Astra reconhece os usuários e lembra seu histórico de comunicação – esses recursos aparecerão em breve no Gemini Live.

Fonte da imagem: 9to5Google

Hassabis observou que o promissor modelo do Projeto Astra se distingue, em primeiro lugar, pela maior quantidade de memória. Em particular, ele lembra detalhes importantes de conversas anteriores para melhor contexto e personalização. Há também uma “memória de 10 minutos” separada do diálogo atual. Espera-se que esses recursos cheguem ao Gemini Live em breve. Hassabis enfatizou que o Google DeepMind “está treinando seu modelo de IA, chamado Gemini, não apenas para mostrar o mundo, mas para executar ações nele, como reservar voos e fazer compras online”.

Hassabis acredita que o prazo real para a AGI é de 5 a 10 anos, e que será “um sistema que realmente entende tudo ao seu redor de uma forma muito sutil e profunda e está inserido na sua vida cotidiana”.

Quando perguntado se o Google DeepMind está “trabalhando em um sistema hoje que será autoconsciente”, Hassabis disse que isso é teoricamente possível, mas ele não percebe nenhum dos sistemas atuais como sendo autoconsciente. Ele acredita que “todos devem tomar suas próprias decisões ao interagir com esses chatbots”.

Quando questionado se a autoconsciência é “seu objetivo” (no desenvolvimento de IA), ele disse que isso poderia acontecer implicitamente: “Esses sistemas podem ganhar algum senso de autoconsciência. É possível. Acho importante que esses sistemas entendam você, a si mesmo e aos outros. E isso provavelmente é o início de algo como autoconsciência.”

«Acredito que há duas razões pelas quais nos consideramos conscientes. Uma delas é que você exibe o comportamento de um ser consciente, muito semelhante ao meu comportamento. Mas a segunda razão é que você está trabalhando no mesmo substrato. Somos feitos da mesma substância de carbono que nossos cérebros moles. Obviamente, as máquinas funcionam com silício. Então, mesmo que eles apresentem o mesmo comportamento, e mesmo que digam as mesmas coisas, isso não significa necessariamente que esse senso de consciência que temos será o mesmo que eles terão”, concluiu Hassabis.

avalanche

Postagens recentes

As vendas de PCs nos EUA aumentaram 3% no final de 2025, mas cairão 13% este ano.

As remessas de PCs nos EUA no quarto trimestre de 2025 apresentaram um aumento de…

20 minutos atrás

O Samsung Galaxy S26 com o chip Exynos 2600 falhou no teste de duração da bateria.

Na maioria dos mercados mundiais, os smartphones Samsung Galaxy S26 e S26+ vêm com o…

46 minutos atrás

Um entusiasta conseguiu “inicializar” um processador Intel Bartlett Lake em uma placa-mãe de consumo usando inteligência artificial para reescrever a BIOS.

No início deste mês, a Intel apresentou os processadores Bartlett Lake para aplicações industriais e…

46 minutos atrás

O motivo da evacuação de emergência do astronauta da ISS foi revelado: ele ficou literalmente sem palavras.

Em janeiro de 2026, o veterano astronauta da NASA, Mike Fincke, passou por uma experiência…

1 hora atrás

Calendário de lançamentos: 30 de março a 5 de abril: Super Meat Boy 3D, Grime 2 e Darwin’s Paradox!

A semana entre março e abril foi inesperadamente agitada. Uma enxurrada de lançamentos em um…

2 horas atrás

Acer apresenta os SSDs FA300 PCIe 5.0 – até 2 TB e até 11 GB/s

A Acer apresentou a série FA300 de SSDs NVMe PCIe 5.0 de gama média. Os…

2 horas atrás