A OpenAI pressionou com sucesso a UE por uma abordagem mais suave para a regulamentação da IA

A OpenAI, criadora do chatbot ChatGPT AI, pressionou a União Europeia por uma abordagem mais branda para o desenvolvimento de legislação que rege o uso de IA generativa, escreve a Time, citando cópias de documentos da Comissão Europeia recebidos.

Fonte da imagem: Pixabay

Segundo a fonte, a OpenAI dirigiu-se aos legisladores europeus com um pedido para fazer várias alterações ao projeto de “Lei da inteligência artificial”. Em particular, ela sugeriu que os sistemas General Purpose AI (GPAI), como OpenAI ChatGPT e DALL-E, não deveriam ser classificados como “alto risco”, o que imporia as mais altas obrigações de segurança e transparência a eles. A OpenAI afirma que apenas as empresas que aplicam explicitamente a IA a áreas e tarefas de alto risco devem cumprir as regras desta categoria. “O GPT-3 em si não é um sistema de alto risco, mas possui recursos que podem ser usados ​​em casos de uso de alto risco”, disse a OpenAI em um white paper enviado aos funcionários da Comissão e do Conselho da UE em setembro de 2022.

Em junho de 2022, foi realizada uma reunião entre representantes da OpenAI e da Comissão Europeia para esclarecer as categorias de risco propostas no projeto de lei de IA. “Eles estavam preocupados que os sistemas de IA de uso geral fossem listados como de alto risco e que mais sistemas fossem categorizados como de alto risco por padrão”, disse a ata oficial da reunião. Na reunião, representantes da OpenAI levantaram preocupações de que o excesso de regulamentação poderia afetar a inovação da IA, de acordo com uma fonte da Time na Comissão Europeia.

Parece que o lobby da OpenAI foi amplamente bem-sucedido – o GPAI não é classificado como de alto risco no projeto final de lei de IA da UE aprovado em 14 de junho. No entanto, exige mais transparência dos “modelos básicos” – poderosos sistemas de IA como o GPT-3, que podem ser usados ​​para uma variedade de tarefas. Isso exigirá que as empresas conduzam avaliações de risco e divulguem se materiais protegidos por direitos autorais foram usados ​​para treinar seus modelos de IA.

Um porta-voz da OpenAI disse à Time que a OpenAI apóia a inclusão de “modelos básicos” como uma categoria separada na lei de IA, apesar da empresa optar por não divulgar as fontes de dados para treinar seus modelos de IA por medo de processos por violação de direitos autorais.

Levará muito tempo até que a Lei da IA ​​da UE entre em vigor. A previsão é de que seja aprovado no final deste ano, podendo levar até dois anos para entrar em vigor.

avalanche

Postagens recentes

Elon Musk terá que devolver US$ 29 bilhões à Tesla para receber seu bônus de longa data de US$ 56 bilhões.

Em 21 de abril, o conselho de administração da Tesla revogou por unanimidade uma bonificação…

42 minutos atrás

A Honor apresentou o poderoso notebook gamer Win H9 com seis ventoinhas para operação silenciosa.

A Honor apresentou o notebook gamer Win H9. O sistema vem equipado com seis ventoinhas…

42 minutos atrás

A Marvell adquire a Polariton, desenvolvedora de soluções plasmônicas.

A Marvell Technology anunciou a aquisição da Polariton Technologies, desenvolvedora de dispositivos fotônicos de alta…

2 horas atrás

Tim Cook revelou seu primeiro grande erro como CEO da Apple.

O CEO da Apple, Tim Cook, classificou o lançamento fracassado do Apple Maps em 2012…

2 horas atrás

A BioWare está muito ocupada para mostrar o novo Mass Effect.

Michael Gamble, produtor executivo e diretor de desenvolvimento do novo Mass Effect da BioWare, comentou…

2 horas atrás

“O Jogo do Ano Está Chegando”: O trailer de lançamento do jogo de ação e ficção científica Saros foi recebido com entusiasmo pelos jogadores.

O estúdio finlandês Housemarque (Returnal, Nex Machina), em colaboração com a Sony Interactive Entertainment, lançou…

3 horas atrás