As autoridades da UE publicaram ontem o primeiro rascunho de um Código de Prática para modelos de inteligência artificial geral (AGI), também conhecidos como “IA forte” e “IA de nível humano”. O documento, que será finalizado em maio do próximo ano, descreve diretrizes de gestão de risco, traça um plano de conformidade e descreve maneiras para as empresas evitarem multas pesadas.

Fonte da imagem: Tung Nguyen/pixabay.com

A “Lei da IA” da Europa entrou em vigor em 1º de agosto, deixando espaço para que futuras regras para a IA geral sejam consagradas. Este documento preliminar é uma primeira tentativa de esclarecer o que se espera dos modelos avançados; As partes interessadas têm tempo para fornecer feedback e sugerir melhorias antes que os regulamentos entrem em vigor.

Modelos de IA de uso geral são definidos como sistemas treinados com um poder computacional total de mais de 10²⁵ flops. As empresas que deverão ser contempladas pelo documento são OpenAI, Google, Meta✴, Anthropic e Mistral – esta lista pode crescer.

O Código abrange vários aspectos dos desenvolvedores gerais de IA: transparência, conformidade com direitos autorais, avaliação de riscos e mitigação de riscos técnicos e de gestão. Os desenvolvedores de IA devem divulgar informações sobre os rastreadores da web usados ​​para treinar modelos – isso é importante para detentores de direitos autorais e criadores de conteúdo. A avaliação de riscos inclui medidas para prevenir o cibercrime, a inclusão de materiais discriminatórios em conjuntos de formação e a perda de controlo sobre a IA.

Espera-se que os desenvolvedores de IA formulem uma Estrutura de Segurança e Proteção (SSF). Este documento ajudará a estruturar políticas para conter ameaças e mitigá-las proporcionalmente aos riscos sistémicos individuais. Os regulamentos propostos pela UE também abrangem áreas técnicas, incluindo a proteção destes modelos, garantindo um controlo de acesso tolerante a falhas e reavaliando continuamente a sua eficácia. A seção que descreve os mecanismos de interação com as autoridades prevê a implementação da responsabilização pelos próprios desenvolvedores: é necessária uma avaliação constante dos riscos e, se necessário, o envolvimento de especialistas terceirizados. A violação da Lei da IA ​​acarreta uma multa grave de até 35 milhões de euros ou 7% dos lucros anuais globais, o que for maior. As partes afetadas pelo projeto poderão enviar comentários até 28 de novembro; o documento será finalizado até 1º de maio de 2025.

avalanche

Postagens recentes

A “data de morte” do ChromeOS foi revelada — o Google fornecerá um período razoável de suporte para o sistema operacional em fase final de desenvolvimento.

O Google planeja descontinuar completamente seu sistema operacional ChromeOS até 2034, substituindo-o por uma nova…

1 hora atrás

A Epic Games Store está ficando mais rápida e fácil de usar.

A Epic Games planeja redesenhar completamente a arquitetura principal de seu launcher e revelar os…

1 hora atrás

A Western Digital anunciou a data de lançamento de seus HDDs de 100 TB, com os modelos de 40 a 44 TB com HAMR quase prontos.

Durante sua apresentação para investidores no Innovation Day, a Western Digital revelou seus planos. A…

1 hora atrás

The Outer Worlds 2 e Avowed não corresponderam às expectativas da Microsoft, mas isso não significa o fim para a Obsidian.

O estúdio Obsidian Entertainment, pertencente à Microsoft, lançou três projetos em 2025 — o jogo…

3 horas atrás

A Snowflake agora colaborará diretamente com a OpenAI, sem passar pela Microsoft.

A Snowflake, empresa de ciência de dados com IA baseada em nuvem, anunciou uma parceria…

8 horas atrás

A Apple detém 69% do mercado de smartphones nos EUA, enquanto a Samsung possui cinco vezes menos.

No quarto trimestre de 2025, a Apple alcançou uma participação historicamente alta nas vendas de…

8 horas atrás