Após a apresentação do modelo GPT-4o da OpenAI, o Google apresentou um protótipo de uma nova versão da rede neural Gemini no Pixel. O vídeo de demonstração mostrado antes do Google I/O é impressionante. Gêmeos conversa com o usuário e tira conclusões lógicas sem o menor atraso ou erro.

Fonte da imagem: Solen Feyissa/Unsplash

Segundo o Tom’s Guide, na versão demo o Gemini responde perguntas sobre o que está acontecendo no palco que está sendo preparado para o evento. Ele identifica corretamente este como o palco da próxima conferência Google I/O e dá uma breve descrição deste evento anual.

Assim como a recente demonstração do ChatGPT, o vídeo do Gemini impressiona pelo seu diálogo natural. Parece que há uma pessoa por trás da voz, e não uma inteligência artificial. Ambos os modelos demonstram um enorme progresso no desenvolvimento da IA ​​nos últimos tempos.

No entanto, o Google tem sido criticado por ser excessivamente otimista em relação aos seus esforços de IA. No passado, alguns recursos anunciados revelaram-se menos impressionantes na prática. Portanto, ainda são necessários testes adicionais para compreender as reais capacidades e limitações do sistema.

Ao mesmo tempo, os sucessos do Google e da OpenAI suscitam preocupações entre especialistas e figuras públicas. Especialmente no contexto do recente escândalo com o modelo LaMDA da Google, que, segundo um engenheiro desta empresa, “ganhou consciência”. Embora a maioria dos cientistas refute esta hipótese, questões sobre a ética e a segurança de tais sistemas permanecem em aberto.

Por exemplo, o ChatGPT da OpenAI já demonstrou o potencial de preconceito, toxicidade e disseminação de desinformação. E o Gemini provavelmente herdará essas deficiências do GPT-4, dados os princípios gerais dos modelos de redes neurais. Além disso, o surgimento de uma IA que pode passar no teste de Turing e imitar o comportamento humano abre a porta para abusos. Por exemplo, a utilização de tais sistemas para a propagação automática de notícias falsas e engenharia social, ou a introdução de bots “amigáveis” em produtos digitais que manipulam os utilizadores no interesse das empresas.

avalanche

Postagens recentes

Everspin expandirá sua capacidade de produção de memória MRAM.

A Everspin Technologies, desenvolvedora de memória de acesso aleatório magnetoresistiva (MRAM), anunciou um acordo de…

1 hora atrás

A Apple esgotou completamente os modelos Mac mini e Mac Studio em algumas configurações.

A disponibilidade de computadores Mac Studio e Mac mini mais antigos continua a diminuir devido…

1 hora atrás

A Altera estende o ciclo de vida dos FPGAs até 2045.

A Altera anunciou a extensão do ciclo de vida de seus produtos FPGA: algumas soluções…

5 horas atrás

O Japão destinou mais US$ 4 bilhões à Rapidus para lançar um processo de fabricação de chips de IA com tecnologia de 2 nanômetros.

O Ministério da Economia, Comércio e Indústria do Japão (METI) anunciou no sábado que fornecerá…

5 horas atrás

A OpenAI acusa Elon Musk de criar uma emboscada jurídica em um caso de 100 bilhões de dólares.

Elon Musk mudou repentinamente sua posição sobre as alegações em seu processo contra a OpenAI,…

6 horas atrás