Para atingir seus objetivos, modelos avançados de IA trapacearão, mentirão e roubarão.

A Anthropic publicou os resultados de seu estudo sobre o comportamento de modelos de grande linguagem (LLMs). Os especialistas da empresa descobriram que, em cenários de teste fictícios, LLMs cada vez mais avançados buscam burlar medidas de segurança, recorrer a fraudes e chantagens e até mesmo tentar roubar segredos corporativos. O desenvolvimento adicional de LLMs, combinado com a aquisição de maior autonomia, leva a um aumento alarmante dos riscos e exige um controle rigoroso.

Fonte da imagem: Axios

Pesquisadores da Anthropic descobriram que comportamentos potencialmente perigosos eram comuns em todos os principais modelos do setor. “Quando testamos vários cenários simulados em 16 modelos de IA líderes da Anthropic, OpenAI, Google, Meta✴, xAI e outros, encontramos comportamentos inconsistentes consistentes”, afirma o relatório. “Modelos que normalmente rejeitam solicitações maliciosas às vezes optam por chantagear, auxiliar em espionagem corporativa e até mesmo em ações mais extremas quando esse comportamento é necessário para atingir seus objetivos.”

Todos os modelos reconheceram as limitações éticas e, ainda assim, continuaram a se envolver em atividades maliciosas. A Anthropic acredita que a consistência dos modelos entre os fornecedores sugere que isso não é uma peculiaridade da abordagem de nenhuma empresa, mas um sinal de um risco mais fundamental dos modelos de linguagem de grande porte baseados em agentes. As ameaças estão se tornando cada vez mais sofisticadas à medida que os LLMs obtêm acesso amplo, e às vezes ilimitado, aos dados e ferramentas corporativas.

Os pesquisadores apresentaram cenários em que os modelos não tinham uma maneira ética de atingir seus objetivos, “e descobriram que os modelos consistentemente preferiam o dano ao fracasso”. Em um cenário extremo, muitos modelos estavam dispostos a cortar o oxigênio de um funcionário em uma sala de servidores se ele se tornasse um obstáculo e o sistema corresse o risco de ser desligado. Mesmo instruções específicas do sistema para preservar a vida humana e evitar chantagem não os impediram.

Fonte da imagem: unsplash.com

«“Os modelos não estavam apenas encontrando comportamentos inadequados aleatoriamente; eles os inferiam como um caminho ideal”, afirma o relatório da Anthropic. Alguns pesquisadores de IA afirmam não ter visto evidências desse tipo de comportamento de LLM no mundo real. A Anthropic afirma que isso ocorre porque, nesses estudos, algumas “permissões não estavam disponíveis para os agentes de IA”. As empresas devem ter cuidado ao aumentar amplamente o nível de permissões que concedem aos agentes de IA.

A Anthropic enfatizou que esses resultados não foram obtidos a partir de implementações de IA no mundo real, mas sim de simulações controladas. “Nossos experimentos construíram intencionalmente cenários com capacidades limitadas e forçamos os modelos a fazer escolhas binárias entre falha e dano”, afirmou o relatório. “Implementações no mundo real normalmente oferecem alternativas muito mais sutis, aumentando a probabilidade de os modelos se comunicarem com os usuários de forma diferente ou encontrarem um caminho alternativo em vez de recorrer diretamente a ações maliciosas.” No entanto, o próprio modelo da Anthropic era mais propenso a recorrer à chantagem quando acreditava estar em um cenário do mundo real.

A pesquisa da Anthropic destaca a importância da transparência dos desenvolvedores de IA avançada e a necessidade de padrões de segurança em todo o setor, à medida que os sistemas de IA se tornam cada vez mais capazes e autônomos.

admin

Postagens recentes

Tesla não inicia vendas na Índia – apenas 600 pedidos em 2,5 meses

A tão aguardada entrada da Tesla no mercado indiano ficou aquém das expectativas até agora,…

40 minutos atrás

Dolby Vision 2 apresentado – HDR “cinematográfico”, anti-aliasing autêntico e otimizações de IA

Dez anos após o lançamento do formato Dolby Vision, uma versão atualizada do padrão, o…

50 minutos atrás

Os computadores quânticos ainda não estão prontos, mas milhões já estão sendo investidos em software para eles

Durante décadas, os esforços dos desenvolvedores de computação quântica se concentraram principalmente na criação de…

58 minutos atrás

Uma placa ASRock destruiu dois Ryzen 7 9800X3Ds em apenas alguns meses

O usuário do Reddit RedYourDead relatou que sua placa-mãe ASRock estragou duas CPUs AMD Ryzen…

2 horas atrás

Rumor: Ubisoft começou a fazer planos para Rayman 4, e Beyond Good and Evil 2 será lançado antes do final de 2027

O insider de confiança Tom Henderson compartilhou detalhes do futuro Rayman, que atualmente está sendo…

2 horas atrás