As autoridades da UE publicaram ontem o primeiro rascunho de um Código de Prática para modelos de inteligência artificial geral (AGI), também conhecidos como “IA forte” e “IA de nível humano”. O documento, que será finalizado em maio do próximo ano, descreve diretrizes de gestão de risco, traça um plano de conformidade e descreve maneiras para as empresas evitarem multas pesadas.

Fonte da imagem: Tung Nguyen/pixabay.com

A “Lei da IA” da Europa entrou em vigor em 1º de agosto, deixando espaço para que futuras regras para a IA geral sejam consagradas. Este documento preliminar é uma primeira tentativa de esclarecer o que se espera dos modelos avançados; As partes interessadas têm tempo para fornecer feedback e sugerir melhorias antes que os regulamentos entrem em vigor.

Modelos de IA de uso geral são definidos como sistemas treinados com um poder computacional total de mais de 10²⁵ flops. As empresas que deverão ser contempladas pelo documento são OpenAI, Google, Meta✴, Anthropic e Mistral – esta lista pode crescer.

O Código abrange vários aspectos dos desenvolvedores gerais de IA: transparência, conformidade com direitos autorais, avaliação de riscos e mitigação de riscos técnicos e de gestão. Os desenvolvedores de IA devem divulgar informações sobre os rastreadores da web usados ​​para treinar modelos – isso é importante para detentores de direitos autorais e criadores de conteúdo. A avaliação de riscos inclui medidas para prevenir o cibercrime, a inclusão de materiais discriminatórios em conjuntos de formação e a perda de controlo sobre a IA.

Espera-se que os desenvolvedores de IA formulem uma Estrutura de Segurança e Proteção (SSF). Este documento ajudará a estruturar políticas para conter ameaças e mitigá-las proporcionalmente aos riscos sistémicos individuais. Os regulamentos propostos pela UE também abrangem áreas técnicas, incluindo a proteção destes modelos, garantindo um controlo de acesso tolerante a falhas e reavaliando continuamente a sua eficácia. A seção que descreve os mecanismos de interação com as autoridades prevê a implementação da responsabilização pelos próprios desenvolvedores: é necessária uma avaliação constante dos riscos e, se necessário, o envolvimento de especialistas terceirizados. A violação da Lei da IA ​​acarreta uma multa grave de até 35 milhões de euros ou 7% dos lucros anuais globais, o que for maior. As partes afetadas pelo projeto poderão enviar comentários até 28 de novembro; o documento será finalizado até 1º de maio de 2025.

avalanche

Postagens recentes

A China revitalizou em grande escala tecnologias centenárias de estabilização da rede elétrica.

A descentralização massiva das fontes de energia renováveis ​​está se tornando um desafio para as…

1 hora atrás

Starfield liderou as paradas de vendas semanais nos EUA pela primeira vez em três anos, graças ao seu lançamento para PS5.

O tão aguardado lançamento de Starfield, o RPG espacial, para PS5 não parece estar fazendo…

2 horas atrás

Tim Cook continuará representando a Apple nas relações governamentais em todo o mundo.

Em setembro, o atual CEO da Apple, Tim Cook, deixará o cargo de presidente executivo,…

2 horas atrás

A Sony e a Honda estão perto de encerrar sua joint venture após a paralisação do projeto do veículo elétrico Afeela.

No início desta década, a Sony e a Honda planejavam produzir o veículo elétrico Afeela,…

2 horas atrás

A Oppo apresenta o tablet compacto com processador de última geração, o Oppo Pad Mini.

Além do inovador smartphone com câmera Find X9 Ultra, a Oppo anunciou o tablet Oppo…

2 horas atrás