A Comissão Europeia (CE) publicou orientações na sexta-feira para ajudar os desenvolvedores de modelos de IA que acreditam representar riscos sistêmicos a cumprir a Lei de IA para mitigar ameaças potenciais.

Fonte da imagem: Carl Gruner/unsplash.com
A medida da CE visa combater as críticas de algumas empresas sobre a Lei de IA e o ônus regulatório, relata a Reuters. Também visa dar mais clareza aos potenciais infratores da lei, que enfrentam multas que variam de € 7,5 milhões (US$ 8,7 milhões), ou 1,5% do faturamento, a € 35 milhões (US$ 40,8 milhões), ou 7% do faturamento global.
«A Lei de IA foi adotada no ano passado e está entrando em vigor em etapas. A partir de 2 de agosto, ela regulamentará o uso de modelos de IA com riscos sistêmicos e modelos básicos que formam a base para diversas aplicações. Estamos falando de modelos de IA do Google, OpenAI, Meta✴ Platforms, Anthropic e Mistral. A CE classifica modelos de IA com riscos sistêmicos como aqueles que desenvolveram capacidades computacionais significativas e podem ter um impacto significativo na saúde pública, na segurança, nos direitos fundamentais ou na sociedade como um todo.
Tais modelos devem ser submetidos a avaliação e mitigação de riscos, bem como a testes competitivos. Seus desenvolvedores devem notificar a CE sobre incidentes graves e garantir proteção adequada contra roubo e uso indevido.
Para modelos de IA de uso geral (GPAI), ou modelos básicos, haverá requisitos de transparência, incluindo a produção de documentação técnica, a adoção de uma política de direitos autorais e o fornecimento de visões gerais detalhadas do conteúdo usado para treinar os algoritmos.
De acordo com Henna Virkkunen, Chefe da Unidade Técnica da CE, a orientação publicada ajudará a garantir a implementação tranquila e eficaz da Lei de IA.
