A OpenAI pressionou com sucesso a UE por uma abordagem mais suave para a regulamentação da IA

A OpenAI, criadora do chatbot ChatGPT AI, pressionou a União Europeia por uma abordagem mais branda para o desenvolvimento de legislação que rege o uso de IA generativa, escreve a Time, citando cópias de documentos da Comissão Europeia recebidos.

Fonte da imagem: Pixabay

Segundo a fonte, a OpenAI dirigiu-se aos legisladores europeus com um pedido para fazer várias alterações ao projeto de “Lei da inteligência artificial”. Em particular, ela sugeriu que os sistemas General Purpose AI (GPAI), como OpenAI ChatGPT e DALL-E, não deveriam ser classificados como “alto risco”, o que imporia as mais altas obrigações de segurança e transparência a eles. A OpenAI afirma que apenas as empresas que aplicam explicitamente a IA a áreas e tarefas de alto risco devem cumprir as regras desta categoria. “O GPT-3 em si não é um sistema de alto risco, mas possui recursos que podem ser usados ​​em casos de uso de alto risco”, disse a OpenAI em um white paper enviado aos funcionários da Comissão e do Conselho da UE em setembro de 2022.

Em junho de 2022, foi realizada uma reunião entre representantes da OpenAI e da Comissão Europeia para esclarecer as categorias de risco propostas no projeto de lei de IA. “Eles estavam preocupados que os sistemas de IA de uso geral fossem listados como de alto risco e que mais sistemas fossem categorizados como de alto risco por padrão”, disse a ata oficial da reunião. Na reunião, representantes da OpenAI levantaram preocupações de que o excesso de regulamentação poderia afetar a inovação da IA, de acordo com uma fonte da Time na Comissão Europeia.

Parece que o lobby da OpenAI foi amplamente bem-sucedido – o GPAI não é classificado como de alto risco no projeto final de lei de IA da UE aprovado em 14 de junho. No entanto, exige mais transparência dos “modelos básicos” – poderosos sistemas de IA como o GPT-3, que podem ser usados ​​para uma variedade de tarefas. Isso exigirá que as empresas conduzam avaliações de risco e divulguem se materiais protegidos por direitos autorais foram usados ​​para treinar seus modelos de IA.

Um porta-voz da OpenAI disse à Time que a OpenAI apóia a inclusão de “modelos básicos” como uma categoria separada na lei de IA, apesar da empresa optar por não divulgar as fontes de dados para treinar seus modelos de IA por medo de processos por violação de direitos autorais.

Levará muito tempo até que a Lei da IA ​​da UE entre em vigor. A previsão é de que seja aprovado no final deste ano, podendo levar até dois anos para entrar em vigor.

avalanche

Postagens recentes

“Todos estão infelizes, exceto a gerência”: o moral na Meta atinge o nível mais baixo da história, apesar dos lucros recordes.

O moral na Meta✴ atingiu um nível historicamente baixo às vésperas da demissão de quase…

1 hora atrás

Seguindo o caminho já trilhado: a crítica deu seu veredito sobre Forza Horizon 6.

Antes de seu lançamento iminente, o ambicioso jogo de corrida arcade de mundo aberto Forza…

2 horas atrás

As placas gráficas Radeon RX 6000 e RX 7000 receberão suporte para o escalonamento AMD FSR 4.1.

A AMD atendeu aos pedidos insistentes dos jogadores para fornecer suporte à tecnologia de escalonamento…

2 horas atrás

Amazon cancela MMO de Senhor dos Anéis, mas já tem um novo jogo “emocionante”.

A pedido do Eurogamer, Jeff Grattis, chefe da divisão de jogos da Amazon, comentou sobre…

2 horas atrás

A MSI lançará uma GeForce RTX 5080 em edição muito limitada, inspirada em “The Mandalorian e Grogu”.

A MSI apresentou a placa de vídeo GeForce RTX 5080 16GB OC em uma edição…

3 horas atrás

A Anthropic afirmou que a IA já escreve mais de 90% do seu código.

É como se as empresas de tecnologia estivessem numa corrida para ver quem consegue fazer…

3 horas atrás