A Alphabet (empresa controladora do Google) alertou os funcionários para terem cuidado ao usar chatbots que usam aprendizado de máquina e tecnologias de inteligência artificial baseadas em redes neurais. Não foi exceção e Bard, desenvolvido nas profundezas da própria empresa.

Fonte da imagem: Alexandra_Koch/pixabay.com

“Os funcionários foram aconselhados a não inserir informações confidenciais em diálogos com chatbots. Segundo a Reuters, isso foi relatado pela primeira vez por fontes da mídia e, em seguida, a própria empresa confirmou a informação, citando uma estratégia de proteção de informações de longo prazo. Bots de IA podem apoiar conversas e responder a um grande número de perguntas. Ao mesmo tempo, os desenvolvedores responsáveis ​​​​pelo correto funcionamento dos chats podem visualizar esses diálogos. Além disso, muitos sistemas aprendem com os próprios diálogos e posteriormente são capazes de reproduzir os dados recebidos em outras conversas, o que inevitavelmente cria o risco de vazamento de informações.”

A Alphabet também alertou os programadores contra o uso direto de código gerado por bot. Quando questionada por jornalistas, a empresa respondeu que Bard pode aconselhar soluções de software indesejadas, mas mesmo assim ajuda no desenvolvimento de software.

Os temores da gigante tecnológica demonstram o quanto o Google quer evitar danos do sistema de IA que lançou em busca da OpenAI e da Microsoft. Além disso, a política do Google indica que as restrições ao uso de sistemas de IA estão se tornando o padrão para as corporações. Restrições já foram introduzidas pela Samsung, Amazon, Deutsche Bank, bem como outras empresas, incluindo rumores de ser a Apple.

Quanto à Microsoft, a empresa se recusou a dizer aos repórteres se eles proibiram o uso de bots de IA por funcionários. Mais cedo, um dos principais gerentes disse à Reuters que proibiu pessoalmente tais práticas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *