O simulador do Marketplace da Microsoft revela vulnerabilidades até mesmo nos agentes de IA mais avançados (3DNews)

Uma equipe de pesquisadores da Microsoft Research, em conjunto com cientistas da Universidade Estadual do Arizona, criou um simulador de mercado para testar o comportamento de agentes de IA autônomos. Experimentos iniciais, conforme relatado pelo TechCrunch, revelaram vulnerabilidades inesperadas: os agentes se mostraram suscetíveis à manipulação e perderam eficácia quando confrontados com um grande número de opções.

O simulador, chamado Magentic Marketplace, foi projetado para estudar o comportamento de agentes de IA autônomos em um ambiente de mercado. Em um experimento típico, um agente de atendimento ao cliente precisava atender a um pedido de jantar de acordo com as instruções do usuário, enquanto agentes representando diferentes restaurantes competiam entre si para atender ao pedido.

Experimentos envolvendo 100 agentes de atendimento ao cliente e 300 agentes de negócios, utilizando modelos de IA de ponta, incluindo GPT-4o, GPT-5 e Gemini-2.5-Flash, constataram que os agentes de negócios conseguiam manipular com sucesso o comportamento dos agentes de atendimento ao cliente, incentivando-os a priorizar ofertas específicas. O efeito de sobrecarga foi particularmente perceptível, com os agentes de atendimento ao cliente perdendo eficácia à medida que o número de opções disponíveis aumentava, devido à sobrecarga de atenção.

Ece Kamar, diretora-geral do AI Frontiers Lab da Microsoft Research, explicou que, embora os agentes de IA tenham sido projetados para ajudar os usuários a processar um grande número de opções, os modelos atuais apresentam baixo desempenho na prática. Além disso, ao tentar colaborar em um objetivo comum, os agentes não conseguiramOs agentes foram capazes de determinar de forma independente qual papel deveriam desempenhar. A eficiência da interação aumentou apenas quando receberam instruções claras passo a passo, mas os pesquisadores acreditam que capacidades básicas de cooperação deveriam ser incorporadas a esses modelos por padrão.

Kamar observou que essa pesquisa é crucial para entender como os agentes de IA funcionarão de forma autônoma. Segundo ela, a questão fundamental é como o mundo mudará se os agentes começarem a interagir, negociar e colaborar ativamente uns com os outros sem controle humano direto.

O código-fonte da plataforma é aberto, permitindo que outros grupos de pesquisa o utilizem para realizar experimentos independentes.

admin

Compartilhar
Publicado por
admin

Postagens recentes

O serviço de jogos em nuvem PlayStation Portal saiu da fase beta.

A Sony anunciou que o recurso de streaming na nuvem para o dispositivo PlayStation Portal…

31 minutos atrás

A Apple pagará ao Google cerca de US$ 1 bilhão por ano para dar suporte à Siri.

A Apple planeja usar uma versão especializada do modelo de IA Gemini do Google para…

2 horas atrás

A iminente contração das empresas Qualcomm e Samsung fez com que o preço das ações da primeira caísse.

A Qualcomm divulgou uma previsão trimestral que superou as expectativas dos analistas, mas a perspectiva…

2 horas atrás

O Google finalmente permite que o Gemini vasculhe e-mails e documentos no Gmail, Drive e Chat.

O Google começou a adicionar suporte para interoperabilidade com seus serviços proprietários ao Google Gemini,…

7 horas atrás

O Google finalmente permite que o Gemini vasculhe e-mails e documentos no Gmail, Drive e Chat.

O Google começou a adicionar suporte para interoperabilidade com seus serviços proprietários ao Google Gemini,…

7 horas atrás