Os EUA, o Reino Unido e mais de uma dúzia de outros países anunciaram um acordo internacional inédito sobre como proteger os sistemas de inteligência artificial contra atacantes. O documento apela à criação de plataformas de IA concebidas para serem seguras desde o início do seu desenvolvimento.

Fonte da imagem: geralt/Pixabay

O documento de 20 páginas estipula que as empresas que desenvolvem e operam sistemas de IA devem aderir a políticas destinadas a proteger os utilizadores e o público contra abusos. O conteúdo do documento inclui uma série de recomendações gerais, como monitorar sistemas de IA quanto a abusos, proteger dados contra acesso não autorizado e examinar minuciosamente os fornecedores de software.

Jen Easterly, diretora da Agência de Segurança Cibernética e de Infraestrutura dos EUA (CISA), enfatizou a importância do consenso internacional sobre esta questão. Esta é a primeira vez, disse ela, que tantos países concordam que o foco do desenvolvimento da IA ​​deve ser a segurança, e não apenas características inovadoras ou redução de custos. Este acordo faz parte de iniciativas globais destinadas a moldar o futuro da IA. O impacto da IA ​​é tão grande que regular o seu desenvolvimento está a tornar-se uma questão fundamental para a sociedade.

Além dos EUA e do Reino Unido, países como Alemanha, Itália, República Checa, Estónia, Polónia, Austrália, Chile, Israel, Nigéria e Singapura aderiram ao acordo. A mudança demonstra um compromisso global em estabelecer padrões em IA.

O documento também discute medidas para combater ameaças de hackers. As recomendações incluem o lançamento de modelos de IA somente após extensos testes de segurança. No entanto, o acordo não aborda questões complexas relacionadas com a utilização adequada da IA ​​e dos métodos de recolha de dados.

A União Europeia (UE) já está a trabalhar ativamente na regulamentação da IA. Os legisladores da UE estão a desenvolver regras nesta área, e a França, a Alemanha e a Itália chegaram recentemente a um acordo sobre a regulamentação da IA, incluindo a auto-regulação obrigatória através de códigos de conduta para os principais modelos de IA. Ao mesmo tempo, nos EUA, o processo de regulamentação da IA ​​foi retardado devido à polarização no Congresso.

A administração de Joe Biden tem apelado a uma maior regulamentação da IA ​​e, em Outubro, a Casa Branca emitiu uma ordem executiva destinada a reduzir os riscos da IA ​​para os consumidores, ao mesmo tempo que fortalece a segurança nacional.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *