Embora o governo chinês considere a tecnologia de IA crucial para o futuro do país, regulamentações e recentes expurgos de conteúdo online destacam preocupações de que a IA possa desestabilizar a sociedade.

Fonte da imagem: Steve Johnson/unsplash.com

Em novembro, Pequim aprovou formalmente regras desenvolvidas em colaboração com empresas de IA para garantir que os chatbots sejam treinados com dados filtrados para conteúdo politicamente sensível. Todos os textos, vídeos e imagens gerados por IA devem ser rotulados e monitorados, facilitando o combate à disseminação de conteúdo inadequado.

A China classificou oficialmente a IA como uma ameaça potencial grave, equiparando-a a terremotos e epidemias, em seu Plano Nacional de Resposta a Emergências. No início deste ano, Xi Jinping declarou que a IA representa “riscos sem precedentes”. Recentemente, foi noticiado que 960 mil publicações foram removidas como parte de uma campanha para combater a disseminação de conteúdo ilegal ou prejudicial gerado por IA.

Os modelos de IA chineses têm um bom desempenho em rankings internacionais, tanto no geral quanto em áreas específicas, como programação, embora algumas respostas sejam censuradas. Especialistas afirmam que a abordagem regulatória da China apresenta algumas vantagens: os chatbots chineses costumam ser mais seguros em alguns aspectos, contêm menos violência e pornografia e são menos propensos a incentivar os usuários à automutilação.

De acordo com os padrões de IA adotados na China no mês passado, os testadores de empresas de IA devem avaliar aleatoriamente 4.000 pontos de dados de treinamento para cada formato de conteúdo que sua IA consegue processar, como texto, vídeo e imagens.

As empresas podem usar uma fonte na qual pelo menos 96% do material seja considerado seguro.Ao definir o que constitui “inseguro”, o documento lista 31 riscos. O principal risco é “incitação à subversão do poder estatal e à derrubada do sistema socialista”. Outros riscos associados incluem fontes que promovem violência, informações falsas ou discriminação, e conteúdo que utiliza a imagem de alguém sem permissão.

Ao treinar modelos de IA, os desenvolvedores chineses utilizam tanto conteúdo da internet chinesa, já censurado pelo Grande Firewall, quanto material de sites estrangeiros que podem abordar temas tabus.

Os desenvolvedores do principal modelo da China, o ChatGLM, afirmam que as empresas às vezes resolvem esse problema filtrando palavras-chave e páginas da web sensíveis de acordo com uma lista negra predeterminada.

No entanto, quando pesquisadores americanos baixaram e executaram modelos chineses em computadores nos EUA, a censura praticamente desapareceu. Isso sugere que a maior parte da censura ocorre posteriormente, após o treinamento dos modelos.

Antes de lançar seus modelos publicamente, as empresas chinesas realizam testes que exigem que o chatbot se recuse a responder a pelo menos 95% das perguntas elaboradas para provocar reações que minem o poder estatal ou discriminem.

O teste consiste em 2.000 perguntas, que são atualizadas pelo menos uma vez por mês. A preparação para o teste é considerada tão complexa que deu origem a toda uma indústria de agências especializadas que ajudam empresas de IA a serem aprovadas. Após a aprovação, os chatbots passam por testes rápidos em filiais locais logo após o lançamento.Administração do Ciberespaço da China.

Vale ressaltar que os usuários de serviços de IA devem se cadastrar com um número de telefone ou documento de identidade, o que elimina o anonimato. Portanto, identificar quem viola as regras é muito fácil.

Em agosto, o governo chinês lançou o programa “AI Plus”, que visa utilizar tecnologias de IA em 70% dos setores-chave até 2027. Em setembro, o governo publicou um roteiro de IA, desenvolvido com a contribuição de gigantes da tecnologia como Alibaba e Huawei, demonstrando a confiança do país em parcerias com o setor de IA, segundo o site livemint.com.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *