Especialista em sistemas de IA pede bombardeio de centros de dados hostis que receberam hardware demais para treinar IA

O especialista em inteligência artificial Eliezer Yudkowsky pediu a limitação do poder de computação para treinamento de IA em todo o mundo. Além disso, ele fez uma proposta bastante ousada – destruir o data center de alta capacidade se algum dos países tentar construir tais capacidades. No entanto, o próprio Yudkovsky fez mais do que qualquer outro para acelerar o desenvolvimento da “inteligência geral artificial” (AGI).

Yudkowsky é especialista em “regular a IA” de acordo com as metas e objetivos definidos pelos desenvolvedores – para que não cause danos acidentalmente ou propositalmente. Ele publicou um artigo na Time Magazine no qual soa desesperadamente o alarme, argumentando que a própria existência da humanidade e até mesmo formas de vida biológica está em questão devido ao desenvolvimento descontrolado da IA ​​- se alguém conseguir construir uma IA produtiva o suficiente capaz de ser consciente de si.

Fonte da imagem: Defense-Imagery/pixabay.com

A OpenAI disse que planeja resolver o problema da “regulação” construindo uma IA que pode ajustar os princípios fundamentais de como outras inteligências artificiais funcionam. Yudkowsky criticou a OpenAI por falta de transparência e enfatizou que uma recente carta aberta assinada por Elon Musk com mil outros especialistas em TI e pedindo uma moratória de seis meses para grandes desenvolvimentos de IA não reflete a situação atual, uma vez que tais pesquisas devem ser interrompidas. para sempre.

Fonte da imagem: Computerizer/pixabay.com

Segundo o cientista, estudar a segurança da IA ​​deve levar décadas, não meses. O cientista pediu a proibição de experimentos em larga escala no estudo da IA ​​para sempre e em todos os lugares, sem exceção para departamentos governamentais e militares. Além disso, ele propôs a conclusão de acordos multilaterais que preveem não apenas restrições à criação de data centers com um grande número de aceleradores, mas também uma redução nas cotas à medida que algoritmos de aprendizado cada vez mais avançados são desenvolvidos.

Se as agências de inteligência descobrirem que um país que abandonou a moratória eterna está comprando componentes e construindo data centers para AGI, esses data centers devem ser destruídos por ataques aéreos, pois qualquer conflito entre países será menos assustador do que uma guerra entre a humanidade e inteligência artificial. Segundo Yudkovsky, ao tentar criar uma mente sobre-humana, em nenhum caso se deve cometer erros – não haverá oportunidade de corrigi-los.

avalanche

Postagens recentes

Samsung explora a criação de sua primeira instalação de embalagem de chips no Japão

A Samsung Electronics está considerando o lançamento de uma linha de teste para embalagens de…

20 segundos atrás

Gigabyte anuncia placas-mãe soquete AM5 de baixo custo baseadas no chipset AMD A620

A Gigabyte anunciou o lançamento de placas-mãe econômicas com o chipset júnior AMD A620 ainda…

2 horas atrás

SMIC terá que focar em processos mais antigos, mas rentabilidade ainda vai cair

Dois anos após a imposição de sanções pelos Estados Unidos, o principal fabricante chinês de…

3 horas atrás

A MTS RED implantará um ecossistema aberto de segurança cibernética

A MTS RED anunciou um projeto para criar um ecossistema aberto de segurança cibernética. Ele…

3 horas atrás

E Ink e Sharp lançarão pôsteres de tinta eletrônica de 42 polegadas em abril

Abril marca o 19º aniversário do lançamento do primeiro leitor de e-book com tinta eletrônica…

3 horas atrás

Final Fantasy XVI já foi ouro, embora ainda faltem quase três meses para o lançamento

A editora e desenvolvedora Square Enix anunciou no microblog oficial de seu aguardado RPG Final…

3 horas atrás