A OpenAI pressionou com sucesso a UE por uma abordagem mais suave para a regulamentação da IA

A OpenAI, criadora do chatbot ChatGPT AI, pressionou a União Europeia por uma abordagem mais branda para o desenvolvimento de legislação que rege o uso de IA generativa, escreve a Time, citando cópias de documentos da Comissão Europeia recebidos.

Fonte da imagem: Pixabay

Segundo a fonte, a OpenAI dirigiu-se aos legisladores europeus com um pedido para fazer várias alterações ao projeto de “Lei da inteligência artificial”. Em particular, ela sugeriu que os sistemas General Purpose AI (GPAI), como OpenAI ChatGPT e DALL-E, não deveriam ser classificados como “alto risco”, o que imporia as mais altas obrigações de segurança e transparência a eles. A OpenAI afirma que apenas as empresas que aplicam explicitamente a IA a áreas e tarefas de alto risco devem cumprir as regras desta categoria. “O GPT-3 em si não é um sistema de alto risco, mas possui recursos que podem ser usados ​​em casos de uso de alto risco”, disse a OpenAI em um white paper enviado aos funcionários da Comissão e do Conselho da UE em setembro de 2022.

Em junho de 2022, foi realizada uma reunião entre representantes da OpenAI e da Comissão Europeia para esclarecer as categorias de risco propostas no projeto de lei de IA. “Eles estavam preocupados que os sistemas de IA de uso geral fossem listados como de alto risco e que mais sistemas fossem categorizados como de alto risco por padrão”, disse a ata oficial da reunião. Na reunião, representantes da OpenAI levantaram preocupações de que o excesso de regulamentação poderia afetar a inovação da IA, de acordo com uma fonte da Time na Comissão Europeia.

Parece que o lobby da OpenAI foi amplamente bem-sucedido – o GPAI não é classificado como de alto risco no projeto final de lei de IA da UE aprovado em 14 de junho. No entanto, exige mais transparência dos “modelos básicos” – poderosos sistemas de IA como o GPT-3, que podem ser usados ​​para uma variedade de tarefas. Isso exigirá que as empresas conduzam avaliações de risco e divulguem se materiais protegidos por direitos autorais foram usados ​​para treinar seus modelos de IA.

Um porta-voz da OpenAI disse à Time que a OpenAI apóia a inclusão de “modelos básicos” como uma categoria separada na lei de IA, apesar da empresa optar por não divulgar as fontes de dados para treinar seus modelos de IA por medo de processos por violação de direitos autorais.

Levará muito tempo até que a Lei da IA ​​da UE entre em vigor. A previsão é de que seja aprovado no final deste ano, podendo levar até dois anos para entrar em vigor.

avalanche

Postagens recentes

Empresas europeias serão proibidas de fabricar chips essenciais na China

Atuando em consonância com os parceiros estrangeiros, as autoridades da UE não hesitam em propor…

3 minutos atrás

A sonda BepiColombo enviou fotos e vídeos de uma cratera de Mercúrio tirada de uma distância de apenas 236 km

Resultado da cooperação entre a União Europeia e o Japão, a sonda BepiColombo, projetada para…

4 minutos atrás

Você não vai respirar antes de morrer: um insider revelou como nova Maratona da Bungie será jogada

O insider verificado Tom Henderson (Tom Henderson) esclareceu com seus informantes os detalhes da evacuação…

6 minutos atrás

Configuração secreta permite que os proprietários de carros elétricos da Tesla tirem as mãos do volante agora

Ao desenvolver sistemas ativos de assistência ao motorista para seus veículos elétricos, a Tesla até…

5 dias atrás

Índia aprova construção de fábrica de US$ 2,7 bilhões da Micron para embalagem e teste de chips

O gabinete indiano aprovou um plano para construir uma nova unidade de teste e empacotamento…

5 dias atrás

Tesla pretende investir na Índia e entrar no mercado local o mais rápido possível

Durante a visita do primeiro-ministro indiano Narendra Modi aos Estados Unidos, o CEO da Tesla,…

5 dias atrás