Nesta semana, os legisladores bipartidários dos EUA apresentaram uma legislação que proibiria formalmente a IA de lançar armas nucleares. Agora, o requisito de “controle humano significativo” sobre a tomada de decisões será corrigido.

Fonte da imagem: freepik

Embora a política do Departamento de Defesa já afirme que uma pessoa deve estar “informada” quando decisões tão importantes estão sendo tomadas, o novo Projeto de Lei de Lançamentos Nucleares de Bloqueio de IA Autônoma codifica essa política impedindo o uso de fundos federais para um lançamento nuclear automatizado sem ” controle humano significativo”.

«Como vivemos numa era cada vez mais digital, precisamos garantir que apenas humanos tenham o poder de manejar, controlar e lançar armas nucleares, e não robôs”, disse o parlamentar.

Os chatbots de IA, como o popular ChatGPT, o mais avançado GPT-4 e o Google Bard, geradores de imagens e clonadores de voz, conquistaram o mundo nos últimos meses. Vários especialistas expressam temores de que, se a situação não for regulamentada, a humanidade possa enfrentar sérias consequências. O professor associado de saúde pública da Texas A&M University, Cason Schmit, disse que “os legisladores costumam ser muito lentos para se adaptar a um ambiente tecnológico em rápida mudança”.

Embora o governo federal ainda não tenha promulgado nenhuma legislação relacionada à IA desde o surgimento dos chatbots de IA, um grupo de líderes de tecnologia e especialistas em IA assinou uma carta em março pedindo uma pausa “imediata” de seis meses no desenvolvimento da IA ​​após o GPT. -4.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *