«A Lei de IA, conforme alterada, se aprovada, proibiria empresas americanas como OpenAI, Amazon, Google e IBM de fornecer acesso de API a modelos generativos de IA. A lei resultará em sanções contra desenvolvedores de código aberto e distribuidores de software, como o GitHub, se modelos generativos de IA forem disponibilizados na Europa sem primeiro passar por um licenciamento extenso e caro. Existem multas enormes.

Fonte da imagem: unsplash.com

Embora a lei forneça exceções para modelos tradicionais de aprendizado de máquina, ela proíbe expressamente o uso de sistemas generativos de código aberto sem licença. Se a lei for aprovada, a aplicação da lei estará fora do controle dos estados membros da UE. De acordo com o AI Act, que tem jurisdição extraterritorial, terceiros podem processar governos nacionais por multas, e o governo europeu pode ser forçado por terceiros a entrar em conflito com desenvolvedores e empresas dos EUA.

A jurisdição muito ampla da lei inclui, mas não está limitada a, “provedores de sistemas de IA estabelecidos ou localizados em um país terceiro onde a lei de um Estado-Membro da UE se aplica em virtude do direito internacional público, ou o resultado produzido pelo sistema é destinado a ser utilizado na UE.” Os desenvolvedores e distribuidores de software são legalmente responsáveis. Para software de código aberto, a responsabilidade passa para a empresa que usa o software ou o lança no mercado.

Os desenvolvedores devem registrar seu design de IA ou modelo básico e sua funcionalidade pretendida. Se a funcionalidade declarada for excedida, a licença poderá ser revogada. Isso se tornará um problema para muitos projetos de código aberto. O registro também exigirá a divulgação das fontes de dados utilizadas, recursos de computação, tempo de treinamento, benchmarks de desempenho e Red Teaming – preparando o sistema para repelir ataques cibernéticos.

Testes de risco caros serão necessários. A lista de riscos é muito vaga e inclui problemas potenciais para o meio ambiente, a democracia e o estado de direito. Aparentemente, os estados da UE farão avaliações de risco dependendo do tamanho da empresa requerente, e os próprios testes ainda não foram criados. O AI Act também exige supervisão pós-lançamento do sistema (presumivelmente pelo governo). Se os modelos demonstrarem habilidades inesperadas, a recertificação será necessária.

Fonte da imagem: pexels.com

Usar uma API que permite implementar serviços baseados em IA sem executá-los em seu próprio hardware pode ser extremamente difícil na UE. De acordo com as novas regras, se novos recursos forem descobertos durante o uso da API, eles precisarão ser certificados e o fornecedor deverá fornecer ao terceiro informações técnicas confidenciais para concluir o processo de licenciamento. Esta disposição permite ao criminoso disponibilizar o software fraudulento na Europa, o que resultará na necessidade do seu licenciamento e divulgação.

Se um desenvolvedor de código aberto dos EUA postar um modelo ou código usando a API no GitHub e esse código for disponibilizado na UE, o desenvolvedor será responsável por liberar o modelo não licenciado. Além disso, o GitHub será responsável por hospedar tal modelo. Atualmente, muitos provedores de nuvem dos EUA não restringem o acesso aos modelos de API. Qualquer desenvolvedor pode acessar a tecnologia mais recente a um preço razoável. As restrições da nova lei tornam o uso da API tão complicado e caro que só estará disponível para clientes corporativos.

Os projetos de código aberto usam o LoRA para treinar seus modelos, adicionando novas informações e recursos de forma lenta, incremental e econômica porque não podem pagar uma infraestrutura de computação de bilhões de dólares. Esses projetos precisarão ser recertificados sempre que usarem o método LoRA para estender o modelo.

«A Lei de IA também prevê o licenciamento de implantação – os desenvolvedores que usam sistemas de IA devem passar por verificações de permissão rigorosas antes do lançamento. As pequenas empresas da UE estão isentas deste requisito.

As penalidades pelo descumprimento do AI Act variam de 2% a 4% da receita bruta global de uma empresa. Para pessoas físicas, a multa pode chegar a € 20 milhões, enquanto pequenas e médias empresas europeias não são ameaçadas com tais multas. E ao usar IA para pesquisa e desenvolvimento de sistemas de energia limpa ou produção de energia limpa, a conformidade com a nova lei não será exigida.

A nova “Lei de IA” é contrária às exigências do regulador norte-americano, e as ações previstas por esta lei causarão sérios problemas antitruste para empresas norte-americanas. O alto custo do treinamento do modelo limita a disponibilidade da IA ​​para pequenas empresas e indivíduos. A Comissão Federal de Comércio dos EUA quer impedir que uma grande empresa use sua posição para obter a maior parte de seus lucros às custas de sócios menores.

«O AI Act pode criar muito mais problemas do que aparenta. Os desenvolvedores de software, especialmente soluções de código aberto, provavelmente não responderão bem a proibições e requisitos de certificação caros. É difícil imaginar o que acontecerá se o GitHub e outras plataformas semelhantes decidirem que a UE é muito difícil de lidar e fechar o acesso. Isso pode levar a consequências que não foram cuidadosamente consideradas. Felizmente, a lei ainda não foi aprovada e mudanças significativas podem aparecer nela.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *