A “Lei da IA” europeia, baseada na avaliação de risco, entrou em vigor na quinta-feira, 1 de agosto de 2024. As disposições do documento serão implementadas em etapas até meados de 2026. Dentro de apenas seis meses, planeja impor proibições a vários usos de IA em cenários específicos, como o uso de biometria remota pelas autoridades policiais em locais públicos.

«A Lei de IA usa uma gradação de aplicações de IA com base em riscos potenciais. Sob esta abordagem, a maioria das aplicações de IA são consideradas de “baixo risco”, pelo que não estariam sujeitas a qualquer regulamentação.

O nível de “risco limitado” aplica-se a tecnologias de IA, como chatbots ou ferramentas que podem ser usadas para criar deepfakes. Eles são obrigados a fornecer um nível de transparência que não engane os usuários.

As aplicações de IA de “alto risco” incluem processamento biométrico e reconhecimento facial, software médico baseado em IA ou o uso de IA em áreas como educação e emprego. Esses sistemas devem ser registados na base de dados da UE e os seus criadores devem garantir a conformidade com os requisitos de gestão de riscos e de qualidade.

«A Lei de IA prevê um sistema de penalidades em vários níveis: multas de até 7% do faturamento anual global pelo uso de aplicações de IA proibidas, até 3% por violação de outras obrigações e até 1,5% por fornecer informações falsas aos reguladores.

Uma seção separada da nova lei diz respeito aos desenvolvedores da chamada “Inteligência Artificial de Propósito Geral” (GPAI). A UE também adotou uma abordagem baseada no risco para o GPAI, sendo a transparência um requisito fundamental para os criadores de tais sistemas. Espera-se que apenas um subconjunto dos modelos mais poderosos seja necessário para realizar avaliações de risco e medidas de mitigação.

Ainda não foram desenvolvidas recomendações específicas para os desenvolvedores de GPAI, uma vez que não há experiência na aplicação legal da nova lei. O AI Office, órgão de supervisão estratégica do ecossistema de IA, lançou uma consulta e incentivou os desenvolvedores a participarem do processo. O código AI deverá estar totalmente concluído até abril de 2025.

O “Manual de Legislação de Inteligência Artificial” da OpenAI, lançado no final do mês passado, afirma que a OpenAI espera “trabalhar em estreita colaboração com a Autoridade de IA da UE e outras autoridades relevantes à medida que a nova lei for implementada nos próximos meses”, o que inclui a produção de documentação técnica e outras orientações para GPAI fornecedores e desenvolvedores de modelos.

«

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *