As autoridades da UE publicaram ontem o primeiro rascunho de um Código de Prática para modelos de inteligência artificial geral (AGI), também conhecidos como “IA forte” e “IA de nível humano”. O documento, que será finalizado em maio do próximo ano, descreve diretrizes de gestão de risco, traça um plano de conformidade e descreve maneiras para as empresas evitarem multas pesadas.

Fonte da imagem: Tung Nguyen/pixabay.com

A “Lei da IA” da Europa entrou em vigor em 1º de agosto, deixando espaço para que futuras regras para a IA geral sejam consagradas. Este documento preliminar é uma primeira tentativa de esclarecer o que se espera dos modelos avançados; As partes interessadas têm tempo para fornecer feedback e sugerir melhorias antes que os regulamentos entrem em vigor.

Modelos de IA de uso geral são definidos como sistemas treinados com um poder computacional total de mais de 10²⁵ flops. As empresas que deverão ser contempladas pelo documento são OpenAI, Google, Meta✴, Anthropic e Mistral – esta lista pode crescer.

O Código abrange vários aspectos dos desenvolvedores gerais de IA: transparência, conformidade com direitos autorais, avaliação de riscos e mitigação de riscos técnicos e de gestão. Os desenvolvedores de IA devem divulgar informações sobre os rastreadores da web usados ​​para treinar modelos – isso é importante para detentores de direitos autorais e criadores de conteúdo. A avaliação de riscos inclui medidas para prevenir o cibercrime, a inclusão de materiais discriminatórios em conjuntos de formação e a perda de controlo sobre a IA.

Espera-se que os desenvolvedores de IA formulem uma Estrutura de Segurança e Proteção (SSF). Este documento ajudará a estruturar políticas para conter ameaças e mitigá-las proporcionalmente aos riscos sistémicos individuais. Os regulamentos propostos pela UE também abrangem áreas técnicas, incluindo a proteção destes modelos, garantindo um controlo de acesso tolerante a falhas e reavaliando continuamente a sua eficácia. A seção que descreve os mecanismos de interação com as autoridades prevê a implementação da responsabilização pelos próprios desenvolvedores: é necessária uma avaliação constante dos riscos e, se necessário, o envolvimento de especialistas terceirizados. A violação da Lei da IA ​​acarreta uma multa grave de até 35 milhões de euros ou 7% dos lucros anuais globais, o que for maior. As partes afetadas pelo projeto poderão enviar comentários até 28 de novembro; o documento será finalizado até 1º de maio de 2025.

avalanche

Postagens recentes

O valor de mercado da Take-Two aumentou em quase US$ 3 bilhões em meio a rumores de que as pré-vendas de GTA VI estão prestes a começar.

Os rumores sobre o lançamento iminente da pré-venda do ambicioso thriller de mundo aberto e…

26 minutos atrás

A China criou um computador quântico fotônico que os supercomputadores não conseguem alcançar, nem mesmo durante a existência do universo.

Cientistas chineses criaram uma nova versão do computador quântico fotônico Jiuzhang, apresentado pela primeira vez…

56 minutos atrás

A Microsoft está preparando um controle Xbox Elite Series 3 de última geração com volante e Wi-Fi.

A Anatel, agência reguladora brasileira, divulgou imagens do próximo controle Xbox Elite, que apresenta diversas…

1 hora atrás

As vendas do sucesso pirata Windrose ultrapassaram dois milhões de cópias em um mês no Acesso Antecipado do Steam.

Os desenvolvedores do estúdio uzbeque Kraken Express relataram novos sucessos para seu simulador de sobrevivência…

2 horas atrás

O protocolo de rede Multipath Reliable Connection (MRC) melhorará o desempenho e a confiabilidade dos clusters de IA.

A OpenAI, em parceria com a AMD, Broadcom, Intel, Microsoft e NVIDIA, anunciou a tecnologia…

2 horas atrás