A Microsoft proibiu temporariamente seus funcionários de usar o ChatGPT “devido a questões de segurança”, apurou a CNBC. A direção da empresa anunciou a nova regra sobre recurso interno, e o acesso ao ChatGPT de dispositivos corporativos foi bloqueado.
Proibir o acesso de funcionários ao ChatGPT e outros chatbots já era praticado anteriormente por outras empresas – pelo menos não era incentivado – mas uma decisão semelhante por parte da Microsoft parece um tanto inesperada, dada a relação especial entre a gigante do software e a empresa que desenvolveu o chatbot , OpenAI. No ano passado, a Microsoft investiu US$ 3 bilhões na OpenAI, e este ano fechou acordo com a startup, comprometendo-se a investir mais US$ 10 bilhões nos próximos anos. O modelo de IA criado pela OpenAI alimenta o chatbot do Bing e muitos outros produtos da Microsoft, mas todas essas considerações não impediram a empresa de introduzir uma proibição.
A administração reconheceu que a Microsoft “investiu em OpenAI e o ChatGPT possui proteções integradas para evitar o uso indevido, mas o site [ChatGPT] ainda assim é um serviço externo de terceiros”. A este respeito, os colaboradores da empresa são aconselhados a “ter cautela” e isto aplica-se a outros serviços externos, incluindo o gerador de imagens Midjourney.
Porém, o banimento não durou muito e, logo após o incidente se tornar público, a Microsoft restaurou o acesso dos funcionários ao chatbot alterando o texto do comunicado no recurso interno. Um representante da empresa disse que a proibição foi introduzida por engano, embora mencionasse diretamente o ChatGPT – o acesso foi restaurado assim que a administração percebeu o erro. “Estávamos testando um sistema de controle do local de trabalho para um modelo de linguagem grande e acidentalmente o ativamos para todos os funcionários. “Como dissemos antes, incentivamos funcionários e clientes a usarem o Bing Chat Enterprise e o ChatGPT Enterprise, que oferecem os mais altos níveis de privacidade e segurança”, acrescentou o porta-voz da Microsoft.