A Microsoft informou ao Windows Latest que o Copilot se destina a todos os casos de uso, não apenas ao entretenimento, apesar de suas diretrizes atualizadas em “Termos de Uso do Microsoft Copilot” afirmarem o contrário, conforme relatado anteriormente por usuários.

Fonte da imagem: Microsoft
O documento alerta que o assistente de IA não deve ser considerado totalmente confiável. “Ele pode cometer erros e pode não funcionar como esperado. Não confie no Copilot para obter conselhos importantes. Use o Copilot por sua conta e risco”, adverte a Microsoft.
Este aviso, inicialmente descoberto por usuários do Reddit, ainda está no site da empresa. A Microsoft, por sua vez, observou que o documento está desatualizado, pois foi criado quando o Copilot fazia parte do Bing como Bing Chat.
“A expressão ‘para diversão’ é uma linguagem legada que existia quando o Copilot foi lançado inicialmente como um serviço de busca dentro do Bing. À medida que o produto evolui, essa linguagem não reflete mais como o Copilot é usado hoje e será alterada em nossa próxima atualização”, disse a Microsoft ao Windows Latest.
Aparentemente, quando o Copilot era semelhante ao Bing Chat e estava apenas começando a ganhar popularidade, e os grandes modelos de linguagem estavam apenas começando a ganhar força, a Microsoft o comercializou puramente como uma ferramenta de diversão. Mas agora a empresa está mirando em um público mais amplo, incluindo profissionais que podem usar o Copilot para uma variedade de tarefas.