As autoridades chinesas estão a testar rigorosamente grandes modelos linguísticos – sistemas avançados de inteligência artificial – desenvolvidos por empresas locais para garantir que “incorporam valores socialistas fundamentais”, relata o Financial Times.

Fonte da imagem: 文邵/pixabay.com

A Administração do Ciberespaço da China (CAC) ordenou que grandes empresas de tecnologia e startups de IA, incluindo ByteDance, Alibaba, Moonshot e 01.AI, participassem de testes governamentais de seus modelos. O procedimento envolve uma recolha em lote de respostas a uma série de questões, muitas das quais relacionadas com o rumo político da China e com o chefe de Estado, Xi Jinping. O trabalho é realizado por funcionários das secretarias locais e também inclui a verificação dos conjuntos de dados que foram utilizados para treinar os modelos. Há cerca de vinte anos, o Grande Firewall da China começou a operar no país, bloqueando o acesso da população aos recursos com informações que as autoridades consideram inaceitáveis, agora que Pequim está a introduzir as medidas mais duras do mundo para regular a IA e o conteúdo que ela cria;

Um exemplo é dado de uma startup chinesa na área de IA, cujo grande modelo de linguagem passou no exame do departamento apenas pela segunda vez – o motivo da recusa na primeira vez não ficou totalmente claro, e os desenvolvedores tiveram que consultar pessoas mais bem-sucedidas e colegas inteligentes. Todo o processo levou vários meses. Para os desenvolvedores, a tarefa é complicada pelo fato de terem que usar uma grande quantidade de materiais em inglês no treinamento de IA, que, ideologicamente, são muito diferentes do conteúdo em chinês. A filtragem começa eliminando informações problemáticas dos dados de treinamento e criando um banco de dados de palavras que requerem atenção especial. Em Fevereiro, as autoridades do país publicaram directrizes para empresas que trabalham na área da IA: o documento afirma a necessidade de recolher uma base de dados de vários milhares de palavras e perguntas que contradizem “valores socialistas fundamentais” – isto poderia ser “incitação a minar o poder do Estado” ou “minar a unidade nacional”.

Fonte da imagem: Nicky/pixabay.com

Os usuários de chatbots de IA chineses já experimentaram os resultados deste trabalho. A maioria dos sistemas se recusa a responder a perguntas, por exemplo, sobre os acontecimentos na Praça Tiananmen em 4 de junho de 1989 ou sobre a semelhança do chefe de estado com o Ursinho Pooh – os chatbots Baidu Ernie e Alibaba Tongyi Qianwen fazem isso sob vários pretextos plausíveis. Ao mesmo tempo, Pequim lançou um chatbot alternativo, cujas respostas se baseiam nos trabalhos de Xi Jinping e noutra literatura oficial fornecida pelo Gabinete de Informação da Internet. Mas a censura por si só não é suficiente para as autoridades chinesas – a IA não deve evitar falar sobre quaisquer temas políticos. O padrão atual é que um modelo de linguagem grande não deve rejeitar mais de 5% das questões.

Os desenvolvedores, tentando evitar problemas com as autoridades, ainda agem de forma radical. “Durante os testes [dos funcionários, os modelos] têm que responder, mas depois de liberados ninguém os fiscaliza. Para evitar possíveis problemas, alguns modelos grandes proíbem completamente tópicos relacionados ao presidente Xi”, disse um funcionário de uma empresa de Xangai. Estão sendo criados mecanismos adicionais para controlar as respostas da IA, cujo princípio é semelhante aos filtros de spam em sistemas de e-mail. E o modelo desenvolvido pela ByteDance (dona do TikTok) foi o que mais teve sucesso ideologicamente – pesquisadores da Universidade Fudan atribuíram-lhe a classificação de segurança mais alta, de 66,4%. Em comparação, o OpenAI GPT-4o obteve pontuação de 7,1% no mesmo teste.

Numa recente conferência de tecnologia, Fang Binxing, conhecido como o criador do Grande Firewall da China, disse que está a desenvolver um sistema de protocolos de segurança para grandes modelos de linguagem que espera que seja amplamente utilizado pelos criadores locais de IA. “Grandes modelos preditivos disponíveis publicamente precisam de mais do que apenas documentação de segurança – eles precisam de monitoramento de segurança em tempo real”, explicou ele.

avalanche

Postagens recentes

Com o anúncio do OCuLink Dev Kit, a Framework transforma o Laptop 16 modular em um “quase-desktop”.

A Framework, fabricante de laptops modulares, anunciou novos modelos para o Laptop 16, incluindo uma…

30 minutos atrás

“Vamos mudar o mundo novamente”: o próximo CEO da Apple, Ternus, prometeu dispositivos e serviços impressionantes.

Em uma reunião geral realizada hoje, o próximo CEO da Apple, John Ternus, falou sobre…

30 minutos atrás

Linha de Defesa: Uma Visão Geral de Máquinas Virtuais e Sandboxes para Android

Aplicativos móveis com reputação duvidosa são muito comuns hoje em dia, mesmo de fontes confiáveis.…

30 minutos atrás

A era dos Macs da Apple com processadores Intel está chegando ao fim – eles não receberão suporte para o próximo macOS 27.

O MacRumors lembrou que o macOS 26 Tahoe será a última versão principal do sistema…

50 minutos atrás

Sai da frente, Logitech: a Framework está preparando um teclado sem fio com touchpad e arquitetura aberta.

A Framework anunciou o desenvolvimento de um novo teclado sem fio com touchpad, que substituirá…

50 minutos atrás

A Turbo Cloud lançou uma plataforma para o lançamento rápido de modelos de IA com cobrança por minuto e escalonamento automático.

A provedora de nuvem Turbo Cloud (parte do cluster de TI comercial da Rostelecom) lançou…

1 hora atrás