As autoridades da UE publicaram ontem o primeiro rascunho de um Código de Prática para modelos de inteligência artificial geral (AGI), também conhecidos como “IA forte” e “IA de nível humano”. O documento, que será finalizado em maio do próximo ano, descreve diretrizes de gestão de risco, traça um plano de conformidade e descreve maneiras para as empresas evitarem multas pesadas.
A “Lei da IA” da Europa entrou em vigor em 1º de agosto, deixando espaço para que futuras regras para a IA geral sejam consagradas. Este documento preliminar é uma primeira tentativa de esclarecer o que se espera dos modelos avançados; As partes interessadas têm tempo para fornecer feedback e sugerir melhorias antes que os regulamentos entrem em vigor.
Modelos de IA de uso geral são definidos como sistemas treinados com um poder computacional total de mais de 10²⁵ flops. As empresas que deverão ser contempladas pelo documento são OpenAI, Google, Meta✴, Anthropic e Mistral – esta lista pode crescer.
O Código abrange vários aspectos dos desenvolvedores gerais de IA: transparência, conformidade com direitos autorais, avaliação de riscos e mitigação de riscos técnicos e de gestão. Os desenvolvedores de IA devem divulgar informações sobre os rastreadores da web usados para treinar modelos – isso é importante para detentores de direitos autorais e criadores de conteúdo. A avaliação de riscos inclui medidas para prevenir o cibercrime, a inclusão de materiais discriminatórios em conjuntos de formação e a perda de controlo sobre a IA.
Espera-se que os desenvolvedores de IA formulem uma Estrutura de Segurança e Proteção (SSF). Este documento ajudará a estruturar políticas para conter ameaças e mitigá-las proporcionalmente aos riscos sistémicos individuais. Os regulamentos propostos pela UE também abrangem áreas técnicas, incluindo a proteção destes modelos, garantindo um controlo de acesso tolerante a falhas e reavaliando continuamente a sua eficácia. A seção que descreve os mecanismos de interação com as autoridades prevê a implementação da responsabilização pelos próprios desenvolvedores: é necessária uma avaliação constante dos riscos e, se necessário, o envolvimento de especialistas terceirizados. A violação da Lei da IA acarreta uma multa grave de até 35 milhões de euros ou 7% dos lucros anuais globais, o que for maior. As partes afetadas pelo projeto poderão enviar comentários até 28 de novembro; o documento será finalizado até 1º de maio de 2025.
Com o lançamento do arcade de corrida Crash Team Racing Nitro-Fueled no Game Pass, o…
CEO da GSC Game World e chefe de desenvolvimento da S.T.A.L.K.E.R. 2: Heart of Chornobyl…
A Oppo apresentou o smartphone de gama média A5 Pro. O novo produto é equipado…
Na China, o sucesso da primeira fase de um sistema para armazenar o excesso de…
AOC apresentou o monitor de jogos Q25G4S de 24,5 polegadas. No novo produto, a fabricante…
Michelle Johnston Holthaus, chefe interina da Intel e de seus negócios de produtos após a…