As autoridades chinesas estão a testar rigorosamente grandes modelos linguísticos – sistemas avançados de inteligência artificial – desenvolvidos por empresas locais para garantir que “incorporam valores socialistas fundamentais”, relata o Financial Times.

Fonte da imagem: 文邵/pixabay.com

A Administração do Ciberespaço da China (CAC) ordenou que grandes empresas de tecnologia e startups de IA, incluindo ByteDance, Alibaba, Moonshot e 01.AI, participassem de testes governamentais de seus modelos. O procedimento envolve uma recolha em lote de respostas a uma série de questões, muitas das quais relacionadas com o rumo político da China e com o chefe de Estado, Xi Jinping. O trabalho é realizado por funcionários das secretarias locais e também inclui a verificação dos conjuntos de dados que foram utilizados para treinar os modelos. Há cerca de vinte anos, o Grande Firewall da China começou a operar no país, bloqueando o acesso da população aos recursos com informações que as autoridades consideram inaceitáveis, agora que Pequim está a introduzir as medidas mais duras do mundo para regular a IA e o conteúdo que ela cria;

Um exemplo é dado de uma startup chinesa na área de IA, cujo grande modelo de linguagem passou no exame do departamento apenas pela segunda vez – o motivo da recusa na primeira vez não ficou totalmente claro, e os desenvolvedores tiveram que consultar pessoas mais bem-sucedidas e colegas inteligentes. Todo o processo levou vários meses. Para os desenvolvedores, a tarefa é complicada pelo fato de terem que usar uma grande quantidade de materiais em inglês no treinamento de IA, que, ideologicamente, são muito diferentes do conteúdo em chinês. A filtragem começa eliminando informações problemáticas dos dados de treinamento e criando um banco de dados de palavras que requerem atenção especial. Em Fevereiro, as autoridades do país publicaram directrizes para empresas que trabalham na área da IA: o documento afirma a necessidade de recolher uma base de dados de vários milhares de palavras e perguntas que contradizem “valores socialistas fundamentais” – isto poderia ser “incitação a minar o poder do Estado” ou “minar a unidade nacional”.

Fonte da imagem: Nicky/pixabay.com

Os usuários de chatbots de IA chineses já experimentaram os resultados deste trabalho. A maioria dos sistemas se recusa a responder a perguntas, por exemplo, sobre os acontecimentos na Praça Tiananmen em 4 de junho de 1989 ou sobre a semelhança do chefe de estado com o Ursinho Pooh – os chatbots Baidu Ernie e Alibaba Tongyi Qianwen fazem isso sob vários pretextos plausíveis. Ao mesmo tempo, Pequim lançou um chatbot alternativo, cujas respostas se baseiam nos trabalhos de Xi Jinping e noutra literatura oficial fornecida pelo Gabinete de Informação da Internet. Mas a censura por si só não é suficiente para as autoridades chinesas – a IA não deve evitar falar sobre quaisquer temas políticos. O padrão atual é que um modelo de linguagem grande não deve rejeitar mais de 5% das questões.

Os desenvolvedores, tentando evitar problemas com as autoridades, ainda agem de forma radical. “Durante os testes [dos funcionários, os modelos] têm que responder, mas depois de liberados ninguém os fiscaliza. Para evitar possíveis problemas, alguns modelos grandes proíbem completamente tópicos relacionados ao presidente Xi”, disse um funcionário de uma empresa de Xangai. Estão sendo criados mecanismos adicionais para controlar as respostas da IA, cujo princípio é semelhante aos filtros de spam em sistemas de e-mail. E o modelo desenvolvido pela ByteDance (dona do TikTok) foi o que mais teve sucesso ideologicamente – pesquisadores da Universidade Fudan atribuíram-lhe a classificação de segurança mais alta, de 66,4%. Em comparação, o OpenAI GPT-4o obteve pontuação de 7,1% no mesmo teste.

Numa recente conferência de tecnologia, Fang Binxing, conhecido como o criador do Grande Firewall da China, disse que está a desenvolver um sistema de protocolos de segurança para grandes modelos de linguagem que espera que seja amplamente utilizado pelos criadores locais de IA. “Grandes modelos preditivos disponíveis publicamente precisam de mais do que apenas documentação de segurança – eles precisam de monitoramento de segurança em tempo real”, explicou ele.

avalanche

Postagens recentes

Simulador de direção off-road Expeditions: A MudRunner Game finalmente ganha modo cooperativo, mas por enquanto apenas no Steam

A editora Focus Entertainment e os desenvolvedores Sabre Interactive (SnowRunner) anunciaram o lançamento de um…

43 minutos atrás

OpenAI introduziu um modelo de IA leve e poderoso GPT-4o Mini – ele substituirá o GPT-3.5 para todos os usuários

A OpenAI revelou oficialmente uma versão simplificada e mais acessível de seu modelo de linguagem…

1 hora atrás

Os chips AMD com núcleos Zen 5 contêm 8,315 bilhões de transistores – densidade aumentada em 28%

No final de julho, a AMD lançará duas séries de processadores - desktop Ryzen 9000…

2 horas atrás

Quarto em um ano: NVIDIA adquiriu outra startup em nuvem – Brev.dev

A NVIDIA adquiriu uma startup que ajuda desenvolvedores de IA a encontrar o melhor preço/qualidade…

3 horas atrás

Bateria elástica de íons de lítio desenvolvida – um caminho para robôs macios e eletrônicos vestíveis flexíveis

Até o momento, o desenvolvimento de robôs leves e dispositivos vestíveis flexíveis tem sido dificultado…

3 horas atrás