O especialista em inteligência artificial Eliezer Yudkowsky pediu a limitação do poder de computação para treinamento de IA em todo o mundo. Além disso, ele fez uma proposta bastante ousada – destruir o data center de alta capacidade se algum dos países tentar construir tais capacidades. No entanto, o próprio Yudkovsky fez mais do que qualquer outro para acelerar o desenvolvimento da “inteligência geral artificial” (AGI).
Yudkowsky é especialista em “regular a IA” de acordo com as metas e objetivos definidos pelos desenvolvedores – para que não cause danos acidentalmente ou propositalmente. Ele publicou um artigo na Time Magazine no qual soa desesperadamente o alarme, argumentando que a própria existência da humanidade e até mesmo formas de vida biológica está em questão devido ao desenvolvimento descontrolado da IA - se alguém conseguir construir uma IA produtiva o suficiente capaz de ser consciente de si.
A OpenAI disse que planeja resolver o problema da “regulação” construindo uma IA que pode ajustar os princípios fundamentais de como outras inteligências artificiais funcionam. Yudkowsky criticou a OpenAI por falta de transparência e enfatizou que uma recente carta aberta assinada por Elon Musk com mil outros especialistas em TI e pedindo uma moratória de seis meses para grandes desenvolvimentos de IA não reflete a situação atual, uma vez que tais pesquisas devem ser interrompidas. para sempre.
Segundo o cientista, estudar a segurança da IA deve levar décadas, não meses. O cientista pediu a proibição de experimentos em larga escala no estudo da IA para sempre e em todos os lugares, sem exceção para departamentos governamentais e militares. Além disso, ele propôs a conclusão de acordos multilaterais que preveem não apenas restrições à criação de data centers com um grande número de aceleradores, mas também uma redução nas cotas à medida que algoritmos de aprendizado cada vez mais avançados são desenvolvidos.
Se as agências de inteligência descobrirem que um país que abandonou a moratória eterna está comprando componentes e construindo data centers para AGI, esses data centers devem ser destruídos por ataques aéreos, pois qualquer conflito entre países será menos assustador do que uma guerra entre a humanidade e inteligência artificial. Segundo Yudkovsky, ao tentar criar uma mente sobre-humana, em nenhum caso se deve cometer erros – não haverá oportunidade de corrigi-los.