Os parlamentares europeus aprovaram por esmagadora maioria a Lei da Inteligência Artificial, que tornará ilegais certos casos de utilização de tecnologia e exigirá que os fornecedores de soluções de IA forneçam transparência. Agora começarão os trabalhos para garantir seu uso.
«A Lei da IA tem sido fortemente contestada desde que foi proposta em 2021 – algumas das suas disposições, incluindo a proibição total de sistemas biométricos de vigilância pública em massa, tiveram de ser atenuadas no último minuto. Outras regulamentações levarão anos para serem aplicadas. O texto legal do documento ainda aguarda aprovação final – talvez isso aconteça nos dias 10 ou 11 de abril, e entre em vigor 20 dias após a publicação oficial, aproximadamente em maio ou junho. As disposições da lei entrarão em vigor por etapas: nos primeiros 6 meses, os países da UE bloquearão o funcionamento de sistemas de IA proibidos; São concedidos 12 meses para garantir a conformidade com os regulamentos relativos a “sistemas de IA de uso geral”, como chatbots; e levará até 36 meses para aprovar a aplicação de sistemas de IA designados como apresentando um “risco de alto nível”.
Os sistemas proibidos incluem soluções como plataformas de classificação social, plataformas de reconhecimento de emoções em locais de trabalho e instituições educativas, bem como sistemas concebidos para influenciar o comportamento dos cidadãos ou explorar vulnerabilidades. Os sistemas de IA de “alto risco” são utilizados em infraestruturas críticas, educação e formação, aplicação da lei e sistemas que podem afetar os processos democráticos, incluindo as eleições. A lei não afetará os gigantes da tecnologia americanos até 2025, então OpenAI, Microsoft, Google e Meta✴ continuarão a lutar pelo domínio, aproveitando a incerteza jurídica nos Estados Unidos.
«A Lei de IA é anterior à explosão de sistemas de IA de uso geral, como o grande modelo de linguagem GPT-4 da OpenAI, e os princípios que os regem geraram intenso debate. As regras da lei são divididas de acordo com o nível de risco que os sistemas de IA representam para a sociedade – “quanto maior o risco, mais rigorosas são as regras”, explicou a UE. Alguns estados membros da UE expressaram preocupação de que regulamentações excessivamente rigorosas pudessem reduzir a atratividade da região para o mercado de IA: Alemanha, Itália e França defenderam a flexibilização das restrições à IA de uso geral. Fizeram compromissos, inclusive nos critérios que classificam os sistemas como “de alto risco”, que estão sujeitos às regulamentações mais rigorosas. Em vez de incluir todos os sistemas de IA de uso geral, eles são divididos em dois níveis e têm exceções de aplicação da lei para casos de uso de IA estritamente proibidos, como a identificação biométrica remota.
O presidente francês, Emmanuel Macron, criticou a Lei da IA, dizendo que ela cria um ambiente regulatório severo que desencoraja a inovação. Algumas empresas europeias de IA terão mais dificuldade em angariar fundos, dando uma vantagem aos seus concorrentes americanos. Jogadores de outras regiões podem optar por não operar na UE ou bloquear o acesso às suas plataformas para evitar serem multados por infringir a lei. A UE enfrentou a mesma ameaça quando a Lei dos Serviços Digitais (DSA) e a Lei dos Mercados Digitais (DMA) entraram em vigor. A nova lei não impõe novos requisitos relativos à recolha de dados para formação em IA – eles são limitados pelo já existente Regulamento Geral de Proteção de Dados e pelas leis de direitos de autor existentes. Finalmente, a Lei de IA não impõe penalidades severas a desenvolvedores de software de código aberto, pesquisadores e pequenas empresas.
Um dos efeitos mais notáveis da Lei da IA pode ser servir de exemplo para os decisores políticos de outras regiões, incluindo os Estados Unidos, que ainda não propuseram regulamentação da indústria. E esta não é a primeira grande regulamentação sobre IA no mundo – a China aprovou o seu próprio conjunto de regras em julho passado. Mas o processo de regulamentação relativamente transparente e amplamente debatido da UE deu à indústria de IA uma ideia do que esperar. A lei não se destina a regular retroativamente os modelos e aplicações existentes, mas as versões futuras do OpenAI GPT, Meta✴ Llama e Google Gemini terão de ter em conta os requisitos de transparência da UE. Isto pode não levar a mudanças dramáticas da noite para o dia, mas o documento demonstra a posição das autoridades regionais em relação à IA.