Um novo relatório do Future of Life Institute (FLI), um grupo de segurança de IA, constata que as medidas de segurança de empresas líderes do setor, como OpenAI, Anthropic, xAI e Meta✴, estão “longe de serem novos padrões globais”. Especialistas independentes concluem que, embora gigantes da tecnologia estejam competindo para desenvolver a chamada “superinteligência”, nenhuma delas possui uma estratégia bem elaborada para monitorar sistemas tão avançados.

Fonte da imagem: Igor Omilaev/unsplash.com

As conclusões do estudo são publicadas em meio à crescente preocupação pública com o impacto social de sistemas com inteligência, raciocínio e pensamento lógico superiores. Essas preocupações foram alimentadas por diversos casos de bots de IA que incitaram pessoas ao suicídio ou à automutilação.

“Apesar da recente polêmica sobre ataques cibernéticos com IA e casos de IA levando pessoas à psicose e à automutilação, as empresas americanas de IA continuam menos regulamentadas do que restaurantes e seguem se opondo a padrões de segurança obrigatórios”, afirmou Max Tegmark, professor do MIT e presidente da Future of Life. A corrida na área da IA ​​não mostra sinais de desaceleração, com grandes empresas de tecnologia investindo centenas de bilhões de dólares na modernização e expansão de seus projetos de IA.

Vale lembrar que a FLI é uma organização sem fins lucrativos que conscientiza o público sobre os riscos que a humanidade pode enfrentar com o surgimento de máquinas inteligentes. A organização existe desde 2014 e foi inicialmente apoiada pelo empresário americano Elon Musk. Musk delineou recentemente três princípios sem os quais a IA se tornará perigosa para os humanos.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *