Segundo um importante estudo da Microsoft, os bots de IA ficam menos inteligentes quando expostos a humanos por longos períodos de tempo.

A Microsoft Research e a Salesforce analisaram mais de 200.000 conversas com modelos avançados de IA, incluindo GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, OpenAI o3, DeepSeek R1 e Llama 4. Os resultados mostraram que esses modelos frequentemente “se perdem na conversa” quando são divididos em diálogos naturais, com várias etapas e trocas de informações. Para o interlocutor do chatbot, isso se manifesta como um “embrutecimento” gradual do modelo, acompanhado de alucinações e respostas totalmente incorretas.

Fonte da imagem: unsplash.com

Cientistas afirmam que modelos de IA como o GPT-4.1 e o Gemini 2.5 Pro atingem 90% de precisão nas respostas ao processar perguntas individuais. No entanto, seu desempenho cai para aproximadamente 65% durante conversas mais longas com múltiplas trocas de informações. Além disso, os modelos tendem a usar sua resposta inicial como base para responder a perguntas subsequentes, mesmo que esteja incorreta.

Os pesquisadores descobriram outro fenômeno curioso: a inflação de respostas. As respostas e reações dos modelos tornaram-se de 20% a 300% mais longas ao participar de conversas com múltiplas interações. Respostas mais longas às perguntas levaram a mais suposições e ilusões, que os modelos então usaram como contexto contínuo na conversa.

Embora modelos como o o3 da OpenAI e o DeepSeek R1 possuam “tokens de pensamento” adicionais, eles não conseguiram escapar dessa situação peculiar. Os pesquisadores observaram que a confiabilidade do modelo de lógica latente (LLM) caiu 112%. Isso se explica pela tendência dos modelos de gerar respostas prematuramente — eles tentam sugerir respostas para perguntas sem compreendê-las completamente.

Está ficando claro que a IA ainda não atingiu seu potencial máximo, enfrentando problemas críticos como a baixa confiabilidade em diálogos complexos. No entanto, a percepção dos usuários em relação aos serviços de IA está mudando rapidamente, especialmente com o surgimento de ferramentas como o Google AI Reviews. Vale ressaltar que abandonar os mecanismos de busca tradicionais em favor de ferramentas baseadas em IA acarreta um risco significativo, já que as informações geradas podem ser pouco confiáveis.

Há algum tempo, a Microsoft acusou os usuários deO mau uso da IA, alegando um baixo nível de habilidade em engenharia no desenvolvimento das instruções, é enfatizado. Talvez sejam justamente as perguntas estúpidas e as instruções ruins dos “skinbags” que impedem os modelos de IA de terem o melhor desempenho?

admin

Compartilhar
Publicado por
admin

Postagens recentes

Um britânico construiu uma motocicleta movida a vapor que se tornou a segunda moto mais rápida do mundo.

No evento Festival of Power, na vila britânica de Podington, Bedfordshire, na pista de aceleração…

3 horas atrás

Astrônomos observaram, pela primeira vez, uma explosão de supernova inexplicável, o que exige uma nova teoria.

Astrônomos podem ter descoberto um novo tipo de explosão cósmica, apelidada de "superkilonova". Este evento,…

6 horas atrás

Um entusiasta de hardware modificou a VBIOS de uma placa gráfica S3 antiga para tornar o preto verdadeiramente preto.

Um criador de conteúdo do canal do YouTube Bits und Bolts descobriu uma falha em…

6 horas atrás

US$ 50 para proteger sua RTX 5090 contra burn-in: a Asus revela o preço do seu cabo ROG Equalizer.

A Asus começou a vender o cabo ROG Equalizer separadamente, que reduz a distribuição desigual…

6 horas atrás

A AMD lançou o sistema de overclocking de memória EXPO 1.2, que irá desbloquear todo o potencial do Zen 6.

A tão aguardada atualização de overclock de memória AMD EXPO 1.2 já está disponível para…

7 horas atrás

O WhatsApp para Android passará a oferecer suporte a “bolhas”, um formato de notificação do sistema pouco conhecido.

O Google Android possui um recurso integrado chamado "Bolhas" ou "Chat Heads" — um formato…

8 horas atrás