A OpenAI pressionou com sucesso a UE por uma abordagem mais suave para a regulamentação da IA

A OpenAI, criadora do chatbot ChatGPT AI, pressionou a União Europeia por uma abordagem mais branda para o desenvolvimento de legislação que rege o uso de IA generativa, escreve a Time, citando cópias de documentos da Comissão Europeia recebidos.

Fonte da imagem: Pixabay

Segundo a fonte, a OpenAI dirigiu-se aos legisladores europeus com um pedido para fazer várias alterações ao projeto de “Lei da inteligência artificial”. Em particular, ela sugeriu que os sistemas General Purpose AI (GPAI), como OpenAI ChatGPT e DALL-E, não deveriam ser classificados como “alto risco”, o que imporia as mais altas obrigações de segurança e transparência a eles. A OpenAI afirma que apenas as empresas que aplicam explicitamente a IA a áreas e tarefas de alto risco devem cumprir as regras desta categoria. “O GPT-3 em si não é um sistema de alto risco, mas possui recursos que podem ser usados ​​em casos de uso de alto risco”, disse a OpenAI em um white paper enviado aos funcionários da Comissão e do Conselho da UE em setembro de 2022.

Em junho de 2022, foi realizada uma reunião entre representantes da OpenAI e da Comissão Europeia para esclarecer as categorias de risco propostas no projeto de lei de IA. “Eles estavam preocupados que os sistemas de IA de uso geral fossem listados como de alto risco e que mais sistemas fossem categorizados como de alto risco por padrão”, disse a ata oficial da reunião. Na reunião, representantes da OpenAI levantaram preocupações de que o excesso de regulamentação poderia afetar a inovação da IA, de acordo com uma fonte da Time na Comissão Europeia.

Parece que o lobby da OpenAI foi amplamente bem-sucedido – o GPAI não é classificado como de alto risco no projeto final de lei de IA da UE aprovado em 14 de junho. No entanto, exige mais transparência dos “modelos básicos” – poderosos sistemas de IA como o GPT-3, que podem ser usados ​​para uma variedade de tarefas. Isso exigirá que as empresas conduzam avaliações de risco e divulguem se materiais protegidos por direitos autorais foram usados ​​para treinar seus modelos de IA.

Um porta-voz da OpenAI disse à Time que a OpenAI apóia a inclusão de “modelos básicos” como uma categoria separada na lei de IA, apesar da empresa optar por não divulgar as fontes de dados para treinar seus modelos de IA por medo de processos por violação de direitos autorais.

Levará muito tempo até que a Lei da IA ​​da UE entre em vigor. A previsão é de que seja aprovado no final deste ano, podendo levar até dois anos para entrar em vigor.

avalanche

Postagens recentes

“O maior Call of Duty da história”: Activision vangloriou-se do sucesso de Black Ops 6 no primeiro mês de lançamento

Graças à sua inclusão na assinatura do Game Pass, o atirador militar Call of Duty:…

20 minutos atrás

Calendário de lançamentos – 25 de novembro a 1º de dezembro: New Arc Line, Neon Blood e Beyond The Darkness

Lançamos a última edição do Calendário de Lançamentos. No vídeo, falamos sobre o que jogar…

20 minutos atrás

Xiaomi vai lançar seu próprio processador para smartphones, descobriu a mídia taiwanesa

A Xiaomi planeja lançar uma plataforma de chip único (SoC) para smartphones de seu próprio…

2 horas atrás

O segundo trailer de “Sonic 3 no cinema” encantou os espectadores

Antecipando a estreia iminente, a produtora Paramount Pictures apresentou o segundo trailer completo de sua…

3 horas atrás