As autoridades da UE publicaram ontem o primeiro rascunho de um Código de Prática para modelos de inteligência artificial geral (AGI), também conhecidos como “IA forte” e “IA de nível humano”. O documento, que será finalizado em maio do próximo ano, descreve diretrizes de gestão de risco, traça um plano de conformidade e descreve maneiras para as empresas evitarem multas pesadas.

Fonte da imagem: Tung Nguyen/pixabay.com

A “Lei da IA” da Europa entrou em vigor em 1º de agosto, deixando espaço para que futuras regras para a IA geral sejam consagradas. Este documento preliminar é uma primeira tentativa de esclarecer o que se espera dos modelos avançados; As partes interessadas têm tempo para fornecer feedback e sugerir melhorias antes que os regulamentos entrem em vigor.

Modelos de IA de uso geral são definidos como sistemas treinados com um poder computacional total de mais de 10²⁵ flops. As empresas que deverão ser contempladas pelo documento são OpenAI, Google, Meta✴, Anthropic e Mistral – esta lista pode crescer.

O Código abrange vários aspectos dos desenvolvedores gerais de IA: transparência, conformidade com direitos autorais, avaliação de riscos e mitigação de riscos técnicos e de gestão. Os desenvolvedores de IA devem divulgar informações sobre os rastreadores da web usados ​​para treinar modelos – isso é importante para detentores de direitos autorais e criadores de conteúdo. A avaliação de riscos inclui medidas para prevenir o cibercrime, a inclusão de materiais discriminatórios em conjuntos de formação e a perda de controlo sobre a IA.

Espera-se que os desenvolvedores de IA formulem uma Estrutura de Segurança e Proteção (SSF). Este documento ajudará a estruturar políticas para conter ameaças e mitigá-las proporcionalmente aos riscos sistémicos individuais. Os regulamentos propostos pela UE também abrangem áreas técnicas, incluindo a proteção destes modelos, garantindo um controlo de acesso tolerante a falhas e reavaliando continuamente a sua eficácia. A seção que descreve os mecanismos de interação com as autoridades prevê a implementação da responsabilização pelos próprios desenvolvedores: é necessária uma avaliação constante dos riscos e, se necessário, o envolvimento de especialistas terceirizados. A violação da Lei da IA ​​acarreta uma multa grave de até 35 milhões de euros ou 7% dos lucros anuais globais, o que for maior. As partes afetadas pelo projeto poderão enviar comentários até 28 de novembro; o documento será finalizado até 1º de maio de 2025.

avalanche

Postagens recentes

Uma fonte confiável revelada quando Call of Duty: World at War e Singularity serão adicionados ao Game Pass

Com o lançamento do arcade de corrida Crash Team Racing Nitro-Fueled no Game Pass, o…

2 minutos atrás