Usuários do Reddit notaram uma mudança na política do popular bot de IA OpenAI ChatGPT. O algoritmo não fornece mais aconselhamento médico e jurídico personalizado aos usuários, nem analisa imagens médicas, incluindo ressonâncias magnéticas, raios-X, fotos de lesões de pele e outras.

Fonte da imagem: Dima Solomin / unsplash.com
O chatbot se recusa a responder a essas perguntas, enfatizando que está disposto apenas a fornecer informações gerais para fins educacionais, e não para diagnosticar ou escolher tratamentos para qualquer doença. Truques anteriores, nos quais o modelo de IA era solicitado a considerar uma situação hipotética para obter as informações necessárias, também foram descontinuados. Desta vez, um mecanismo de proteção é acionado e o ChatGPT fornece apenas conselhos gerais, recomendando o contato com um especialista para uma análise mais detalhada do problema.
Representantes da OpenAI não comentaram sobre as mudanças na política de uso do ChatGPT, mas é provável que tenham sido feitas para evitar litígios. Estatísticas mostram que cada vez mais pessoas recorrem ao chatbot em busca de aconselhamento médico e jurídico, cujos resultados são imprevisíveis. No entanto, o uso de redes neurais em tais tarefas é atualmente pouco regulamentado, o que pode representar riscos tanto para desenvolvedores quanto para usuários.
O CEO da OpenAI, Sam Altman, já havia alertado que as conversas com o ChatGPT não são cobertas pelo sigilo médico e pelo sigilo entre advogado e cliente. Isso significa que um tribunal poderia exigir que a empresa divulgasse a correspondência para ser usada como prova em um processo judicial. A OpenAI está trabalhando com os órgãos reguladores para esclarecer o status legal do chatbot, mas até agora nenhum progresso foi feito.
