O CEO do Google DeepMind, Demis Hassabis, passou uma hora conversando com repórteres sobre as perspectivas do Gemini, o ritmo de desenvolvimento de IA forte (Inteligência Artificial Geral, AGI) e o crescimento geral da autoconsciência em redes neurais. Ele dedicou muita atenção ao modelo do Projeto Astra, que atualmente está em fase de testes preliminares. O Astra reconhece os usuários e lembra seu histórico de comunicação – esses recursos aparecerão em breve no Gemini Live.

Fonte da imagem: 9to5Google

Hassabis observou que o promissor modelo do Projeto Astra se distingue, em primeiro lugar, pela maior quantidade de memória. Em particular, ele lembra detalhes importantes de conversas anteriores para melhor contexto e personalização. Há também uma “memória de 10 minutos” separada do diálogo atual. Espera-se que esses recursos cheguem ao Gemini Live em breve. Hassabis enfatizou que o Google DeepMind “está treinando seu modelo de IA, chamado Gemini, não apenas para mostrar o mundo, mas para executar ações nele, como reservar voos e fazer compras online”.

Hassabis acredita que o prazo real para a AGI é de 5 a 10 anos, e que será “um sistema que realmente entende tudo ao seu redor de uma forma muito sutil e profunda e está inserido na sua vida cotidiana”.

Quando perguntado se o Google DeepMind está “trabalhando em um sistema hoje que será autoconsciente”, Hassabis disse que isso é teoricamente possível, mas ele não percebe nenhum dos sistemas atuais como sendo autoconsciente. Ele acredita que “todos devem tomar suas próprias decisões ao interagir com esses chatbots”.

Quando questionado se a autoconsciência é “seu objetivo” (no desenvolvimento de IA), ele disse que isso poderia acontecer implicitamente: “Esses sistemas podem ganhar algum senso de autoconsciência. É possível. Acho importante que esses sistemas entendam você, a si mesmo e aos outros. E isso provavelmente é o início de algo como autoconsciência.”

«Acredito que há duas razões pelas quais nos consideramos conscientes. Uma delas é que você exibe o comportamento de um ser consciente, muito semelhante ao meu comportamento. Mas a segunda razão é que você está trabalhando no mesmo substrato. Somos feitos da mesma substância de carbono que nossos cérebros moles. Obviamente, as máquinas funcionam com silício. Então, mesmo que eles apresentem o mesmo comportamento, e mesmo que digam as mesmas coisas, isso não significa necessariamente que esse senso de consciência que temos será o mesmo que eles terão”, concluiu Hassabis.

avalanche

Postagens recentes

Hackers atacam Jaguar Land Rover – Produção de carros interrompida

A Jaguar Land Rover (JLR) afirmou que a violação "interrompeu gravemente" suas operações de varejo…

54 minutos atrás

EUA impediram a TSMC de fornecer equipamentos para sua fábrica de chips na China

Os Estados Unidos revogaram a permissão da Taiwan Semiconductor Manufacturing Co. de fornecer livremente equipamentos…

54 minutos atrás

Tesla não inicia vendas na Índia – apenas 600 pedidos em 2,5 meses

A tão aguardada entrada da Tesla no mercado indiano ficou aquém das expectativas até agora,…

2 horas atrás

Dolby Vision 2 apresentado – HDR “cinematográfico”, anti-aliasing autêntico e otimizações de IA

Dez anos após o lançamento do formato Dolby Vision, uma versão atualizada do padrão, o…

2 horas atrás

Os computadores quânticos ainda não estão prontos, mas milhões já estão sendo investidos em software para eles

Durante décadas, os esforços dos desenvolvedores de computação quântica se concentraram principalmente na criação de…

2 horas atrás