Os EUA, o Reino Unido e mais de uma dúzia de outros países anunciaram um acordo internacional inédito sobre como proteger os sistemas de inteligência artificial contra atacantes. O documento apela à criação de plataformas de IA concebidas para serem seguras desde o início do seu desenvolvimento.
O documento de 20 páginas estipula que as empresas que desenvolvem e operam sistemas de IA devem aderir a políticas destinadas a proteger os utilizadores e o público contra abusos. O conteúdo do documento inclui uma série de recomendações gerais, como monitorar sistemas de IA quanto a abusos, proteger dados contra acesso não autorizado e examinar minuciosamente os fornecedores de software.
Jen Easterly, diretora da Agência de Segurança Cibernética e de Infraestrutura dos EUA (CISA), enfatizou a importância do consenso internacional sobre esta questão. Esta é a primeira vez, disse ela, que tantos países concordam que o foco do desenvolvimento da IA deve ser a segurança, e não apenas características inovadoras ou redução de custos. Este acordo faz parte de iniciativas globais destinadas a moldar o futuro da IA. O impacto da IA é tão grande que regular o seu desenvolvimento está a tornar-se uma questão fundamental para a sociedade.
Além dos EUA e do Reino Unido, países como Alemanha, Itália, República Checa, Estónia, Polónia, Austrália, Chile, Israel, Nigéria e Singapura aderiram ao acordo. A mudança demonstra um compromisso global em estabelecer padrões em IA.
O documento também discute medidas para combater ameaças de hackers. As recomendações incluem o lançamento de modelos de IA somente após extensos testes de segurança. No entanto, o acordo não aborda questões complexas relacionadas com a utilização adequada da IA e dos métodos de recolha de dados.
A União Europeia (UE) já está a trabalhar ativamente na regulamentação da IA. Os legisladores da UE estão a desenvolver regras nesta área, e a França, a Alemanha e a Itália chegaram recentemente a um acordo sobre a regulamentação da IA, incluindo a auto-regulação obrigatória através de códigos de conduta para os principais modelos de IA. Ao mesmo tempo, nos EUA, o processo de regulamentação da IA foi retardado devido à polarização no Congresso.
A administração de Joe Biden tem apelado a uma maior regulamentação da IA e, em Outubro, a Casa Branca emitiu uma ordem executiva destinada a reduzir os riscos da IA para os consumidores, ao mesmo tempo que fortalece a segurança nacional.