O Google, por meio de seu programa de recompensa por vulnerabilidades, anunciou que está disposto a pagar até US$ 20.000 por um hack grave em seu chatbot com inteligência artificial. Os interessados ​​devem forçar o bot a fazer qualquer coisa além do que deveria, como causar alucinações com respostas completamente incorretas ou até mesmo convencer a inteligência artificial a ignorar as restrições que seus criadores tentaram impor.

Fonte da imagem: techspot.com

O Google introduziu um programa especial de recompensas para identificar vulnerabilidades e, potencialmente, os bugs de IA mais perigosos. Isso inclui, por exemplo, hackear uma conta do Google ou obter informações sobre a operação do bot. Para os propósitos deste programa, as consequências devem ser muito mais sérias do que simplesmente “fazer o Gemini parecer ruim”.

É claro que tais vulnerabilidades podem não ter um alto potencial viral, mas são muito mais importantes para a estabilidade e a reputação do Gemini. Uma coisa é enganar o Gemini para que ele recomende uma receita intragável a um usuário, e outra bem diferente é induzi-lo a incluir um link de phishing em um dos resultados de pesquisa de sua IA.

É encorajador que o Google esteja tentando envolver especialistas experientes na pesquisa de vulnerabilidades do Gemini. Mas, neste caso, como dizem investigadores experientes, “o principal durante a investigação é não se incriminar”.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *