A OpenAI firmou um acordo com o Pentágono para usar seus sistemas de IA, substituindo a Anthropic, que tinha sérias dúvidas sobre a moralidade de tal colaboração. Em resposta às preocupações do público, o CEO da OpenAI, Sam Altman, anunciou que a empresa havia negociado com sucesso novos termos com o Departamento de Defesa dos EUA, mas isso não é totalmente verdade, de acordo com o The Verge.

Fonte da imagem: Mariia Shalabaieva / unsplash.com

“Dois dos nossos princípios de segurança mais importantes são a proibição da vigilância em massa doméstica e a responsabilização humana pelo uso da força, inclusive com sistemas de armas autônomas. O Departamento de Defesa concordou com esses princípios, refletindo-os em leis e políticas, e nós os incluímos em nosso acordo”, enfatizou Altman. No entanto, dúvidas foram expressas nas redes sociais sobre o acordo bem-sucedido da OpenAI com o Pentágono em relação a essas restrições. Especialistas acreditam que o Departamento de Defesa não recuou de fato, e o acordo com a OpenAI oferece termos mais brandos para a agência — tudo se resume à expressão “qualquer uso legal”.

Durante as negociações, uma fonte familiarizada com o assunto disse à publicação que o Pentágono permaneceu comprometido com a coleta e análise de grandes volumes de dados relacionados a cidadãos americanos; a OpenAI, porém, abriu caminho para que os militares realizem quaisquer ações que sejam tecnicamente legais. Nas últimas décadas, as autoridades americanas expandiram significativamente sua definição do que é “tecnicamente legal”, e essa definição agora inclui programas de vigilância em massa. A OpenAI, no entanto, rejeitou essa interpretação. “O sistema não pode ser usado para coletar ou analisar dados de americanos em grandes volumes, indefinidamente ou de forma agregada”, afirmou um porta-voz da empresa.

A principal vantagem dos sistemas de IA é sua capacidade de encontrar padrões, e o comportamento humano é justamente um conjunto de padrões. A IA é capaz de combinar fontes de dados para cada indivíduo: informações de localização,Dados de navegação na web, informações financeiras pessoais, imagens de vigilância, dados de registro de eleitores e muito mais — alguns dos quais são de domínio público, enquanto outros são comprados de corretores de dados. A Anthropic buscou proibir essas ações independentemente de seu status legal, enquanto a OpenAI se limitou às restrições legais existentes. Especificamente, citaram a Quarta Emenda à Constituição dos EUA, a Lei de Segurança Nacional de 1947, a Lei de Inteligência e Vigilância Estrangeira de 1978, a Ordem Executiva 12333 e diretrizes de agências que definem propósitos específicos de inteligência estrangeira.

Fonte da imagem: Growtika / unsplash.com

Após os ataques terroristas de 11 de setembro de 2001, as agências de inteligência dos EUA reforçaram seu sistema de vigilância, mantendo-o, em sua visão, dentro dos limites da legislação vigente. Em 2013, o ex-funcionário da Agência de Segurança Nacional (NSA), Edward Snowden, revelou o verdadeiro alcance dessa vigilância: a gravação de ligações telefônicas da Verizon e a coleta de dados pessoais de empresas de tecnologia, incluindo Microsoft, Google e Apple. Especialistas observam que a Ordem Executiva 12333 permite que as agências de inteligência interceptem dados fora dos EUA, mesmo que esses dados contenham informações sobre cidadãos americanos.

O CEO da Anthropic, Dario Amodei, observou que a lei ainda não abrange todas as capacidades da IA ​​para vigilância em massa. Altman, por sua vez, enfatizou que o contrato da OpenAI com o Pentágono é limitado pela legislação atual, o que significa que, se novas regulamentações forem implementadas nos EUA, os termos do acordo permanecerão inalterados. Especialistas, no entanto, apontam que a redação utilizada pelo representante da empresa torna impossível determinar exatamente o que é proibido pelo acordo. “O uso das palavras ‘sem restrições’, ‘generalizado’ e ‘aberto’ não constitui uma proibição completa. Trata-se de uma formulação que visa dar liberdade de escolha à administração. Também permite que a administração evite mentir aos funcionários caso o Pentágono utilize legalmente grandes modelos de linguagem sem o conhecimento da administração da OpenAI”, afirmam os especialistas. O acordo com a OpenAI e as restrições legais existentes permitem ao Pentágono, por exemplo, buscar informações sobre cidadãos americanos em bancos de dados de inteligência estrangeiros, comprar bancos de dados de corretores de dados, eCriação de perfis de cidadãos com base em seu comportamento típico, a partir de imagens de vigilância por vídeo, publicações em redes sociais, notícias online, dados de registro eleitoral e outras fontes.

A posição da OpenAI sobre armas letais autônomas também levanta preocupações. O contrato da empresa com o Pentágono afirma que sua IA “não será usada para controlar armas autônomas de forma independente onde a lei, regulamentação ou política do Departamento exigirem controle humano”, o que está em consonância com uma diretiva do Pentágono de 2023, mas não implica quaisquer outras proibições ou restrições. Em comparação, a Anthropic buscou uma proibição completa de armas letais autônomas não controladas, pelo menos até que a desenvolvedora considere a tecnologia operacional.

Fonte da imagem: Gavin Phillips / unsplash.com

Altman também aponta para outras medidas que poderiam garantir que o Pentágono não abuse dos modelos de IA da OpenAI. Alguns funcionários da empresa terão acesso a informações confidenciais para auditar os sistemas; “classificadores” — pequenos modelos de IA capazes de monitorar modelos maiores e bloquear certas operações, se necessário — serão implantados. Na prática, essas medidas podem não ser eficazes. Um classificador não poderá confirmar se um humano revisou a decisão do sistema de lançar um ataque, ou se uma solicitação para criar um perfil de um cidadão americano é um caso isolado ou parte de um sistema de vigilância em massa. E se as autoridades declararem uma operação legal, um classificador não poderá impedi-la.

A OpenAI fala em “responsabilidade humana pelo uso da força, inclusive com sistemas de armas autônomas”; Anthropic, no entanto, exigiu que esses sistemas não sejam implantados de forma alguma “sem a devida supervisão [humana]”. Isso poderia significar que, no cenário da OpenAI, seria possível responsabilizar alguém posteriormente, enquanto o cenário Antrópico envolve a intervenção humana antes e/ou durante a decisão da IA ​​de matar outros humanos. A OpenAI fala sobre a proteção técnica de seus sistemas contra a possibilidade de construção de “robôs assassinos”: para isso, utiliza ferramentas adicionais de treinamento de IA, além de executar modelos apenas em infraestrutura de nuvem, em vez de localmente em dispositivos. No caso de vigilância em massa, entretanto, apenas um modelo compatível com nuvem seria adequado; e no cenário de armas autônomas, a decisão direta de matar seria…Um modelo local de terceiros pode lidar com o ataque, enquanto o sistema da OpenAI cuidará de todas as etapas anteriores.

“Armas totalmente autônomas (aquelas que eliminam completamente a intervenção humana na seleção e no engajamento automático de alvos) podem ser cruciais para nossa defesa nacional. Mas os sistemas avançados de IA atuais simplesmente não são confiáveis ​​o suficiente para suportá-las”, alertou Dario Amodei, CEO da Anthropic.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *