A Casa Branca anunciou um acordo com as maiores empresas de tecnologia dos EUA para introduzir medidas de segurança adicionais no campo da IA. Entre as principais medidas está o desenvolvimento de um sistema de marca d’água para identificar o conteúdo gerado pela IA como parte da luta contra a desinformação e outros riscos associados a essa tecnologia em rápida evolução.

Fonte da imagem: sergeitokmakov / Pixabay

A Casa Branca disse que as sete maiores empresas de IA – Amazon, Anthropic, Google, Inflection, Meta*, Microsoft e OpenAI – estão voluntariamente assumindo compromissos que incluem:

  • Testar a segurança e os recursos de seus sistemas de IA antes de seu lançamento público;
  • Investir em pesquisas sobre os riscos da tecnologia de IA para a sociedade;
  • Facilitando auditorias externas de vulnerabilidades em seus sistemas de IA.

Como parte do acordo, os gigantes americanos da tecnologia desenvolverão e implementarão um sistema de marca d’água para conteúdo visual e de áudio. A marca d’água será incorporada à plataforma de forma que qualquer conteúdo gerado pelo usuário identifique qual sistema de IA o criou ou indique que foi criado por IA.

Isso ocorre em um momento em que o presidente Joe Biden e seu governo estão cada vez mais focados nos benefícios e nas armadilhas da IA, com o objetivo de desenvolver medidas de segurança em torno da tecnologia por meio de regulamentação e melhor legislação. Biden convocou uma reunião com especialistas e pesquisadores de IA em São Francisco no mês passado e recebeu os executivos-chefes do Google, Microsoft, Anthropic e OpenAI na Casa Branca em maio. Os líderes dessas empresas se reunirão novamente com o atual presidente dos EUA na Casa Branca hoje.

«Exigiremos que cumpram suas obrigações. As empresas vão e terão que fazer mais do que estão fazendo agora, e o governo federal também”, disse Jeff Zients, chefe de gabinete da Casa Branca. No entanto, de acordo com o próprio comunicado, não existem mecanismos para fazer cumprir as obrigações declaradas, pois refletem principalmente práticas de segurança já implementadas ou prometidas por empresas que atuam no campo da IA. Por exemplo, antes de a OpenAI lançar seu modelo GPT-4 no final de março deste ano, a empresa passou cerca de meio ano trabalhando com especialistas externos que tentavam induzi-la a criar conteúdo malicioso ou racista.

Os novos compromissos, observa a Casa Branca, não substituem a legislação federal, e a Casa Branca está desenvolvendo ativamente uma ordem executiva para regulamentar o uso da IA. Este é um passo à frente na definição de regras sobre ferramentas de IA, dadas as lições aprendidas com o fracasso em conter a disseminação de desinformação e conteúdo prejudicial nas mídias sociais.

* Está incluído na lista de associações públicas e organizações religiosas em relação às quais o tribunal tomou uma decisão final para liquidar ou proibir atividades com base na Lei Federal nº 114-FZ de 25 de julho de 2002 “Sobre o combate ao extremismo atividade”.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *