Após a apresentação do modelo GPT-4o da OpenAI, o Google apresentou um protótipo de uma nova versão da rede neural Gemini no Pixel. O vídeo de demonstração mostrado antes do Google I/O é impressionante. Gêmeos conversa com o usuário e tira conclusões lógicas sem o menor atraso ou erro.

Fonte da imagem: Solen Feyissa/Unsplash

Segundo o Tom’s Guide, na versão demo o Gemini responde perguntas sobre o que está acontecendo no palco que está sendo preparado para o evento. Ele identifica corretamente este como o palco da próxima conferência Google I/O e dá uma breve descrição deste evento anual.

Assim como a recente demonstração do ChatGPT, o vídeo do Gemini impressiona pelo seu diálogo natural. Parece que há uma pessoa por trás da voz, e não uma inteligência artificial. Ambos os modelos demonstram um enorme progresso no desenvolvimento da IA ​​nos últimos tempos.

No entanto, o Google tem sido criticado por ser excessivamente otimista em relação aos seus esforços de IA. No passado, alguns recursos anunciados revelaram-se menos impressionantes na prática. Portanto, ainda são necessários testes adicionais para compreender as reais capacidades e limitações do sistema.

Ao mesmo tempo, os sucessos do Google e da OpenAI suscitam preocupações entre especialistas e figuras públicas. Especialmente no contexto do recente escândalo com o modelo LaMDA da Google, que, segundo um engenheiro desta empresa, “ganhou consciência”. Embora a maioria dos cientistas refute esta hipótese, questões sobre a ética e a segurança de tais sistemas permanecem em aberto.

Por exemplo, o ChatGPT da OpenAI já demonstrou o potencial de preconceito, toxicidade e disseminação de desinformação. E o Gemini provavelmente herdará essas deficiências do GPT-4, dados os princípios gerais dos modelos de redes neurais. Além disso, o surgimento de uma IA que pode passar no teste de Turing e imitar o comportamento humano abre a porta para abusos. Por exemplo, a utilização de tais sistemas para a propagação automática de notícias falsas e engenharia social, ou a introdução de bots “amigáveis” em produtos digitais que manipulam os utilizadores no interesse das empresas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *