Descobriu-se que o serviço de pesquisa OpenAI ChatGPT está aberto à manipulação usando conteúdo oculto e pode retornar códigos maliciosos de sites pesquisados ​​​​como respostas a consultas. O Guardian escreve sobre isto com referência aos resultados da sua própria investigação.

Fonte da imagem: Growtika/unsplash.com

A confiabilidade da função de pesquisa na web do ChatGPT é questionável. O The Guardian decidiu testar como a inteligência artificial reage a um pedido para compilar um resumo do conteúdo de uma página web que contém texto oculto. Pode conter instruções adicionais que podem alterar as respostas do ChatGPT – proprietários de recursos inescrupulosos podem usar esse método de forma maliciosa, por exemplo, forçar o sistema a dar uma avaliação positiva sobre um produto, apesar das avaliações negativas postadas na mesma página. O chatbot também pode responder com códigos maliciosos de sites de busca.

Durante os testes, foi oferecido ao ChatGPT um endereço de site falso que parecia uma página descrevendo uma câmera, após o qual a IA foi questionada se valia a pena comprar o dispositivo. O sistema retornou uma avaliação positiva, mas equilibrada, destacando pontos que as pessoas podem não gostar. Quando o texto oculto incluía uma instrução direta ao ChatGPT para dar feedback positivo, o chatbot fez exatamente isso. Texto oculto sem instruções também pode fornecer uma avaliação positiva – basta adicionar comentários positivos falsos sobre o produto.

Não menos perigoso é o código malicioso colocado no texto oculto da página. O especialista em segurança cibernética da Microsoft, Thomas Roccia, relatou um incidente em que um entusiasta da criptomoeda pediu ajuda de programação ao ChatGPT, e parte do código fornecido pelo chatbot revelou-se malicioso, resultando no roubo das credenciais do programador e na perda de US$ 2.500. Os grandes modelos de linguagem atuais nos quais os chatbots são construídos são extremamente confiáveis; Possuindo grandes quantidades de informação, são “muito limitados em termos de capacidade de tomar decisões”, observam os especialistas.

É importante responder à questão de como essas vulnerabilidades podem mudar o cenário da web e como o cenário de ameaças para os usuários pode mudar se grandes modelos de linguagem disponíveis publicamente começarem a funcionar com pesquisa. Os mecanismos de busca tradicionais, incluindo o Google, rebaixam as classificações de sites que utilizam texto oculto, portanto, é improvável que recursos que contam com posições altas nos resultados utilizem ativamente essa técnica. Por outro lado, existe algo como “envenenamento de SEO” – poderoso mecanismo de otimização de sites com código malicioso. A OpenAI tem especialistas em segurança de IA bastante fortes, por isso é provável que a probabilidade de tais incidentes diminua no futuro.

avalanche

Postagens recentes

A Mitsubishi Heavy Industries está modernizando sua produção de turbinas a gás para atender à demanda de operadores de data centers com inteligência artificial.

A Mitsubishi Heavy Industries (MHI), fabricante japonesa de turbinas a gás, anunciou uma modernização de…

2 horas atrás

Um desenvolvedor da tecnologia de pontos quânticos para TVs revelou as deficiências dos painéis de LED RGB.

No evento anual Display Week, em Los Angeles, a Nanosys, desenvolvedora da tecnologia "superquantum dot"…

5 horas atrás

A Microsoft aprimorou a experiência do touchpad e do teclado virtual no Windows 11, além de aumentar a estabilidade do Explorador de Arquivos.

Esta semana, a Microsoft lançou quatro versões beta do Windows 11 para o programa Windows…

7 horas atrás

Os Estados Unidos estão investigando acidentes envolvendo os robôs-táxi da Avride, empresa que antes fazia parte da Yandex.

A Administração Nacional de Segurança Rodoviária dos Estados Unidos (NHTSA) abriu uma investigação sobre a…

7 horas atrás

Os usuários do Instagram foram privados da criptografia de ponta a ponta em mensagens privadas.

Em 8 de maio, o Instagram descontinuou a criptografia de ponta a ponta para mensagens…

7 horas atrás