Os parlamentares europeus aprovaram por esmagadora maioria a Lei da Inteligência Artificial, que tornará ilegais certos casos de utilização de tecnologia e exigirá que os fornecedores de soluções de IA forneçam transparência. Agora começarão os trabalhos para garantir seu uso.

Fonte da imagem: NoName_13 / pixabay.com

«A Lei da IA ​​tem sido fortemente contestada desde que foi proposta em 2021 – algumas das suas disposições, incluindo a proibição total de sistemas biométricos de vigilância pública em massa, tiveram de ser atenuadas no último minuto. Outras regulamentações levarão anos para serem aplicadas. O texto legal do documento ainda aguarda aprovação final – talvez isso aconteça nos dias 10 ou 11 de abril, e entre em vigor 20 dias após a publicação oficial, aproximadamente em maio ou junho. As disposições da lei entrarão em vigor por etapas: nos primeiros 6 meses, os países da UE bloquearão o funcionamento de sistemas de IA proibidos; São concedidos 12 meses para garantir a conformidade com os regulamentos relativos a “sistemas de IA de uso geral”, como chatbots; e levará até 36 meses para aprovar a aplicação de sistemas de IA designados como apresentando um “risco de alto nível”.

Os sistemas proibidos incluem soluções como plataformas de classificação social, plataformas de reconhecimento de emoções em locais de trabalho e instituições educativas, bem como sistemas concebidos para influenciar o comportamento dos cidadãos ou explorar vulnerabilidades. Os sistemas de IA de “alto risco” são utilizados em infraestruturas críticas, educação e formação, aplicação da lei e sistemas que podem afetar os processos democráticos, incluindo as eleições. A lei não afetará os gigantes da tecnologia americanos até 2025, então OpenAI, Microsoft, Google e Meta✴ continuarão a lutar pelo domínio, aproveitando a incerteza jurídica nos Estados Unidos.

Fonte da imagem: Gerd Altmann / pixabay.com

«A Lei de IA é anterior à explosão de sistemas de IA de uso geral, como o grande modelo de linguagem GPT-4 da OpenAI, e os princípios que os regem geraram intenso debate. As regras da lei são divididas de acordo com o nível de risco que os sistemas de IA representam para a sociedade – “quanto maior o risco, mais rigorosas são as regras”, explicou a UE. Alguns estados membros da UE expressaram preocupação de que regulamentações excessivamente rigorosas pudessem reduzir a atratividade da região para o mercado de IA: Alemanha, Itália e França defenderam a flexibilização das restrições à IA de uso geral. Fizeram compromissos, inclusive nos critérios que classificam os sistemas como “de alto risco”, que estão sujeitos às regulamentações mais rigorosas. Em vez de incluir todos os sistemas de IA de uso geral, eles são divididos em dois níveis e têm exceções de aplicação da lei para casos de uso de IA estritamente proibidos, como a identificação biométrica remota.

O presidente francês, Emmanuel Macron, criticou a Lei da IA, dizendo que ela cria um ambiente regulatório severo que desencoraja a inovação. Algumas empresas europeias de IA terão mais dificuldade em angariar fundos, dando uma vantagem aos seus concorrentes americanos. Jogadores de outras regiões podem optar por não operar na UE ou bloquear o acesso às suas plataformas para evitar serem multados por infringir a lei. A UE enfrentou a mesma ameaça quando a Lei dos Serviços Digitais (DSA) e a Lei dos Mercados Digitais (DMA) entraram em vigor. A nova lei não impõe novos requisitos relativos à recolha de dados para formação em IA – eles são limitados pelo já existente Regulamento Geral de Proteção de Dados e pelas leis de direitos de autor existentes. Finalmente, a Lei de IA não impõe penalidades severas a desenvolvedores de software de código aberto, pesquisadores e pequenas empresas.

Um dos efeitos mais notáveis ​​da Lei da IA ​​pode ser servir de exemplo para os decisores políticos de outras regiões, incluindo os Estados Unidos, que ainda não propuseram regulamentação da indústria. E esta não é a primeira grande regulamentação sobre IA no mundo – a China aprovou o seu próprio conjunto de regras em julho passado. Mas o processo de regulamentação relativamente transparente e amplamente debatido da UE deu à indústria de IA uma ideia do que esperar. A lei não se destina a regular retroativamente os modelos e aplicações existentes, mas as versões futuras do OpenAI GPT, Meta✴ Llama e Google Gemini terão de ter em conta os requisitos de transparência da UE. Isto pode não levar a mudanças dramáticas da noite para o dia, mas o documento demonstra a posição das autoridades regionais em relação à IA.

avalanche

Postagens recentes

A explosão da Starship em novembro do ano passado levou a um enorme buraco na ionosfera

As explosões do primeiro estágio do foguete Starship da SpaceX e de seu módulo principal,…

2 horas atrás

SMIC chinês está três anos atrás do TSMC taiwanês, de acordo com especialistas japoneses

Analistas americanos, como observado anteriormente, estimam em cinco anos a lacuna tecnológica entre os fabricantes…

5 horas atrás

OpenAI discute possibilidade de mudar sua estrutura organizacional para atrair investidores

A startup OpenAI possui uma estrutura organizacional bastante incomum para empresas que buscam atrair recursos…

6 horas atrás

Graças a Deus você está aqui! — 38 fatias. Análise

Jogado no pc Ei, como você está aí! Precisamos ir a Barnsworth e nos encontrar…

14 horas atrás

Cerebras Systems lançou a plataforma de IA “mais poderosa do mundo” para inferência

A startup americana Cerebras Systems, que desenvolve chips para sistemas de aprendizado de máquina e…

16 horas atrás

As vendas de servidores Dell disparam 80% à medida que a empresa atrai os principais clientes de IA da Supermicro

A Dell Technologies anunciou os resultados financeiros do segundo trimestre do ano fiscal de 2025,…

16 horas atrás