A Agência Italiana de Proteção de Dados anunciou que abriu uma investigação sobre o chatbot ChatGPT da Open AI por supostas violações das regras de coleta e processamento de dados de IA. Nesse contexto, a agência restringiu temporariamente o trabalho do chatbot no país e o proibiu de usar dados pessoais de usuários italianos. Tal precedente ocorreu pela primeira vez no mundo.
Além disso, o regulador acusou o ChatGPT de o algoritmo não verificar a idade dos utilizadores. Esse ponto de denúncia também é importante, já que, de acordo com a legislação vigente, você pode interagir com um chatbot a partir dos 13 anos. Além disso, as informações fornecidas pelo ChatGPT nem sempre correspondem aos dados reais, o que causa imprecisões no processamento de informações pessoais.
Segundo a fonte, o regulador italiano não encontrou “nenhuma base legal que justifique a recolha e armazenamento massivo de dados pessoais para treinar os algoritmos que estão na base da plataforma” Open AI. Até agora, os representantes oficiais da Open AI se abstiveram de comentar sobre esse assunto.
O trabalho do ChatGPT na Itália será limitado até que o chatbot esteja em conformidade com a legislação da UE sobre proteção de dados pessoais. A OpenAI deve cumprir a exigência do regulador italiano no prazo de 20 dias, sob pena de multa até 4% do volume de negócios anual ou 20 milhões de euros. As autoridades italianas recordaram ainda que na semana passada houve uma fuga de dados de subscritores pagos do ChatGPT. Devido à falha, alguns usuários podem ver os nomes, sobrenomes, endereços de e-mail e informações de cobrança de outras pessoas.
Desde o lançamento do chatbot ChatGPT no final do ano passado, o algoritmo se tornou muito popular em todo o mundo. Em janeiro deste ano, apenas dois meses após o lançamento, os usuários ativos mensais do ChatGPT ultrapassaram 100 milhões. O rápido aumento na popularidade fez do ChatGPT o aplicativo de consumo que mais cresce na história da indústria de TI.