A rede neural GPT-4 foi assustadoramente fácil de ensinar a matar monstros em Doom, mas o jogador acabou se revelando inútil

Adrian de Wynter, Microsoft Fellow e pesquisador da Universidade de York, no Reino Unido, publicou um artigo sobre a capacidade do grande modelo de linguagem GPT-4 de jogar o clássico jogo de tiro Doom.

Fonte da imagem: Lukas/pixabay.com

Em sua forma original, o grande modelo de linguagem OpenAI GPT-4 não suporta a execução do Doom devido às limitações na quantidade de dados de entrada. Portanto, o pesquisador utilizou sua versão multimodal GPT-4V, que se mostrou capaz de controlar o processo do jogo sem treinamento adicional. Para isso, o pesquisador desenvolveu dois componentes adicionais para conectar Doom à rede neural: o primeiro tira screenshots do jogo e as transmite para o GPT-4V, e o segundo solicita comandos da inteligência artificial para controlar o processo do jogo e os converte em comandos diretos para o controlador de jogo. Como resultado, a IA dispara as armas do jogo, luta contra inimigos, abre portas e repete níveis para melhorar suas próprias pontuações.

Após lançar o jogo, o autor do estudo descobriu rapidamente a principal fraqueza do GPT-4V – assim que os monstros do jogo saem da tela, a IA “esquece” deles. “Por exemplo, seria natural que um modelo visse um monstro na tela e começasse a atirar nele até acertá-lo ou matá-lo. Esta é uma IA escrita para rodar em hardware de 1993 e não possui uma árvore de decisão profunda. Então os monstros atiram e começam a correr pela sala. Então qual é o problema? Bem, em primeiro lugar, os monstros estão fora de vista. O pior é que em algum momento ele morrerá. Então precisamos acabar com ele, certo? Isto é Doom – você é péssimo ou eles te matam. Acontece que o GPT-4 se esquece dos monstros e segue em frente. Além disso, há uma dica sobre o que o modelo deve fazer caso receba dano, mas não veja o inimigo. E, além do mais, ele sai da estrada, fica preso em uma esquina e morre. Ela se virou algumas vezes, mas em 50-60 jogadas eu vi isso, digamos, duas vezes”, disse o autor do estudo.

O GPT-4 mostrou que não consegue raciocinar adequadamente. Quando solicitada a explicar as suas ações, que eram essencialmente corretas naquele contexto, as explicações da IA ​​eram fracas e muitas vezes continham alucinações – informações incorretas. Adrian de Winter achou notável a capacidade do GPT-4 de jogar Doom sem treinamento adicional, mas o mesmo fato levantou preocupações éticas: o cientista havia escrito um código relativamente simples que permitia à IA atirar e atingir alvos sem pensar muito nas consequências. Na prática, a IA pode muito bem ser capaz de testar jogos sem perceber o que está fazendo. O investigador instou as pessoas a pensarem nas possibilidades de implementação de tais modelos na prática e nos perigos da sua utilização injusta.

avalanche

Postagens recentes

Web of Universes: o filme de ação cooperativa cancelado Marvel’s Spider-Man: The Great Web apareceu no trailer do jogo

O vazamento de dados da Insomniac Games ocorreu em dezembro, e os materiais publicados pelos…

13 minutos atrás

Os militares britânicos desclassificaram o vídeo de testes de combate de armas a laser

O Ministério da Defesa do Reino Unido apresentou um vídeo dos primeiros testes de campo…

14 minutos atrás

A Xiaomi iniciará as entregas de seu primeiro carro elétrico SU7 no final de março – as ações da empresa dispararam

A Xiaomi lançou em grande escala seu carro elétrico SU7, primeiro falando detalhadamente sobre as…

54 minutos atrás

TikTok está prestes a lançar sua própria alternativa ao Instagram

O Instagram✴ tenta competir com o TikTok no segmento de vídeos curtos, mas as funções…

1 hora atrás

“Homeworld on steroids”: uma nova demonstração da ambiciosa estratégia espacial Falling Frontier cativou os jogadores

A editora Hooded Horse e a desenvolvedora australiana Stutter Fox Studios lançaram uma demonstração de…

2 horas atrás