A OpenAI pressionou com sucesso a UE por uma abordagem mais suave para a regulamentação da IA

A OpenAI, criadora do chatbot ChatGPT AI, pressionou a União Europeia por uma abordagem mais branda para o desenvolvimento de legislação que rege o uso de IA generativa, escreve a Time, citando cópias de documentos da Comissão Europeia recebidos.

Fonte da imagem: Pixabay

Segundo a fonte, a OpenAI dirigiu-se aos legisladores europeus com um pedido para fazer várias alterações ao projeto de “Lei da inteligência artificial”. Em particular, ela sugeriu que os sistemas General Purpose AI (GPAI), como OpenAI ChatGPT e DALL-E, não deveriam ser classificados como “alto risco”, o que imporia as mais altas obrigações de segurança e transparência a eles. A OpenAI afirma que apenas as empresas que aplicam explicitamente a IA a áreas e tarefas de alto risco devem cumprir as regras desta categoria. “O GPT-3 em si não é um sistema de alto risco, mas possui recursos que podem ser usados ​​em casos de uso de alto risco”, disse a OpenAI em um white paper enviado aos funcionários da Comissão e do Conselho da UE em setembro de 2022.

Em junho de 2022, foi realizada uma reunião entre representantes da OpenAI e da Comissão Europeia para esclarecer as categorias de risco propostas no projeto de lei de IA. “Eles estavam preocupados que os sistemas de IA de uso geral fossem listados como de alto risco e que mais sistemas fossem categorizados como de alto risco por padrão”, disse a ata oficial da reunião. Na reunião, representantes da OpenAI levantaram preocupações de que o excesso de regulamentação poderia afetar a inovação da IA, de acordo com uma fonte da Time na Comissão Europeia.

Parece que o lobby da OpenAI foi amplamente bem-sucedido – o GPAI não é classificado como de alto risco no projeto final de lei de IA da UE aprovado em 14 de junho. No entanto, exige mais transparência dos “modelos básicos” – poderosos sistemas de IA como o GPT-3, que podem ser usados ​​para uma variedade de tarefas. Isso exigirá que as empresas conduzam avaliações de risco e divulguem se materiais protegidos por direitos autorais foram usados ​​para treinar seus modelos de IA.

Um porta-voz da OpenAI disse à Time que a OpenAI apóia a inclusão de “modelos básicos” como uma categoria separada na lei de IA, apesar da empresa optar por não divulgar as fontes de dados para treinar seus modelos de IA por medo de processos por violação de direitos autorais.

Levará muito tempo até que a Lei da IA ​​da UE entre em vigor. A previsão é de que seja aprovado no final deste ano, podendo levar até dois anos para entrar em vigor.

avalanche

Postagens recentes

Uma rara fusão de três buracos negros supermassivos foi descoberta – algo grandioso está nascendo ali.

Cientistas anunciaram uma descoberta astronômica rara: pela primeira vez na história registrada, um sistema de…

52 minutos atrás

A DapuStor e a ZTE estão introduzindo SSDs com resfriamento por imersão em data centers.

A DapuStor anunciou a implementação bem-sucedida de sistemas de armazenamento baseados em SSD com resfriamento…

2 horas atrás

A INT-Tech apresentou um microdisplay OLED com um brilho recorde de 100.000 cd/m².

A empresa taiwanesa INT-Tech anunciou o desenvolvimento de um microdisplay baseado em OLED com retroiluminação…

3 horas atrás

Dois protótipos do robô-táxi Tesla Cybercab foram vistos no Texas, equipados com volante e motorista.

A Tesla vende seus veículos elétricos diretamente, por isso está finalizando rapidamente seus resultados trimestrais.…

3 horas atrás