Para atingir seus objetivos, modelos avançados de IA trapacearão, mentirão e roubarão.

A Anthropic publicou os resultados de seu estudo sobre o comportamento de modelos de grande linguagem (LLMs). Os especialistas da empresa descobriram que, em cenários de teste fictícios, LLMs cada vez mais avançados buscam burlar medidas de segurança, recorrer a fraudes e chantagens e até mesmo tentar roubar segredos corporativos. O desenvolvimento adicional de LLMs, combinado com a aquisição de maior autonomia, leva a um aumento alarmante dos riscos e exige um controle rigoroso.

Fonte da imagem: Axios

Pesquisadores da Anthropic descobriram que comportamentos potencialmente perigosos eram comuns em todos os principais modelos do setor. “Quando testamos vários cenários simulados em 16 modelos de IA líderes da Anthropic, OpenAI, Google, Meta✴, xAI e outros, encontramos comportamentos inconsistentes consistentes”, afirma o relatório. “Modelos que normalmente rejeitam solicitações maliciosas às vezes optam por chantagear, auxiliar em espionagem corporativa e até mesmo em ações mais extremas quando esse comportamento é necessário para atingir seus objetivos.”

Todos os modelos reconheceram as limitações éticas e, ainda assim, continuaram a se envolver em atividades maliciosas. A Anthropic acredita que a consistência dos modelos entre os fornecedores sugere que isso não é uma peculiaridade da abordagem de nenhuma empresa, mas um sinal de um risco mais fundamental dos modelos de linguagem de grande porte baseados em agentes. As ameaças estão se tornando cada vez mais sofisticadas à medida que os LLMs obtêm acesso amplo, e às vezes ilimitado, aos dados e ferramentas corporativas.

Os pesquisadores apresentaram cenários em que os modelos não tinham uma maneira ética de atingir seus objetivos, “e descobriram que os modelos consistentemente preferiam o dano ao fracasso”. Em um cenário extremo, muitos modelos estavam dispostos a cortar o oxigênio de um funcionário em uma sala de servidores se ele se tornasse um obstáculo e o sistema corresse o risco de ser desligado. Mesmo instruções específicas do sistema para preservar a vida humana e evitar chantagem não os impediram.

Fonte da imagem: unsplash.com

«“Os modelos não estavam apenas encontrando comportamentos inadequados aleatoriamente; eles os inferiam como um caminho ideal”, afirma o relatório da Anthropic. Alguns pesquisadores de IA afirmam não ter visto evidências desse tipo de comportamento de LLM no mundo real. A Anthropic afirma que isso ocorre porque, nesses estudos, algumas “permissões não estavam disponíveis para os agentes de IA”. As empresas devem ter cuidado ao aumentar amplamente o nível de permissões que concedem aos agentes de IA.

A Anthropic enfatizou que esses resultados não foram obtidos a partir de implementações de IA no mundo real, mas sim de simulações controladas. “Nossos experimentos construíram intencionalmente cenários com capacidades limitadas e forçamos os modelos a fazer escolhas binárias entre falha e dano”, afirmou o relatório. “Implementações no mundo real normalmente oferecem alternativas muito mais sutis, aumentando a probabilidade de os modelos se comunicarem com os usuários de forma diferente ou encontrarem um caminho alternativo em vez de recorrer diretamente a ações maliciosas.” No entanto, o próprio modelo da Anthropic era mais propenso a recorrer à chantagem quando acreditava estar em um cenário do mundo real.

A pesquisa da Anthropic destaca a importância da transparência dos desenvolvedores de IA avançada e a necessidade de padrões de segurança em todo o setor, à medida que os sistemas de IA se tornam cada vez mais capazes e autônomos.

admin

Postagens recentes

Não se preocupe com a trilha sonora: o compositor de The Witcher 3 escreverá músicas para The Witcher 4.

O estúdio polonês CD Projekt Red não tem pressa em compartilhar detalhes sobre o aguardado…

3 horas atrás

A Microsoft restaurou o ícone de login por senha na tela de bloqueio do Windows 11, que havia desaparecido em agosto.

Seis meses depois, a Microsoft corrigiu um problema conhecido em que a opção de login…

6 horas atrás

Uma fonte interna decepcionou os fãs que esperavam ver Ada Wong e Chris Redfield em Resident Evil Requiem.

O lançamento do ambicioso jogo de terror Resident Evil Requiem marcará o grande retorno do…

10 horas atrás

O Samsung Galaxy S26 Ultra com caneta stylus aparece em imagem de pré-anúncio.

No final de janeiro, foi noticiado que os smartphones da série Samsung Galaxy S26 provavelmente…

11 horas atrás

“Vivo e bem”: Um analista de dados revelou o que está acontecendo com Half-Life 3.

O minerador de dados Maxim Poletaev (também conhecido como Gabe Follower) comentou recentemente sobre rumores…

12 horas atrás

A Ford manteve conversas com a Xiaomi sobre a produção de veículos elétricos nos EUA.

A Ford Motor, uma das maiores montadoras americanas, inicialmente se comprometeu com uma estreita cooperação…

13 horas atrás