Especialista em sistemas de IA pede bombardeio de centros de dados hostis que receberam hardware demais para treinar IA

O especialista em inteligência artificial Eliezer Yudkowsky pediu a limitação do poder de computação para treinamento de IA em todo o mundo. Além disso, ele fez uma proposta bastante ousada – destruir o data center de alta capacidade se algum dos países tentar construir tais capacidades. No entanto, o próprio Yudkovsky fez mais do que qualquer outro para acelerar o desenvolvimento da “inteligência geral artificial” (AGI).

Yudkowsky é especialista em “regular a IA” de acordo com as metas e objetivos definidos pelos desenvolvedores – para que não cause danos acidentalmente ou propositalmente. Ele publicou um artigo na Time Magazine no qual soa desesperadamente o alarme, argumentando que a própria existência da humanidade e até mesmo formas de vida biológica está em questão devido ao desenvolvimento descontrolado da IA ​​- se alguém conseguir construir uma IA produtiva o suficiente capaz de ser consciente de si.

Fonte da imagem: Defense-Imagery/pixabay.com

A OpenAI disse que planeja resolver o problema da “regulação” construindo uma IA que pode ajustar os princípios fundamentais de como outras inteligências artificiais funcionam. Yudkowsky criticou a OpenAI por falta de transparência e enfatizou que uma recente carta aberta assinada por Elon Musk com mil outros especialistas em TI e pedindo uma moratória de seis meses para grandes desenvolvimentos de IA não reflete a situação atual, uma vez que tais pesquisas devem ser interrompidas. para sempre.

Fonte da imagem: Computerizer/pixabay.com

Segundo o cientista, estudar a segurança da IA ​​deve levar décadas, não meses. O cientista pediu a proibição de experimentos em larga escala no estudo da IA ​​para sempre e em todos os lugares, sem exceção para departamentos governamentais e militares. Além disso, ele propôs a conclusão de acordos multilaterais que preveem não apenas restrições à criação de data centers com um grande número de aceleradores, mas também uma redução nas cotas à medida que algoritmos de aprendizado cada vez mais avançados são desenvolvidos.

Se as agências de inteligência descobrirem que um país que abandonou a moratória eterna está comprando componentes e construindo data centers para AGI, esses data centers devem ser destruídos por ataques aéreos, pois qualquer conflito entre países será menos assustador do que uma guerra entre a humanidade e inteligência artificial. Segundo Yudkovsky, ao tentar criar uma mente sobre-humana, em nenhum caso se deve cometer erros – não haverá oportunidade de corrigi-los.

avalanche

Postagens recentes

Há 50 anos, a inteligência artificial derrotou o campeão soviético de xadrez pela primeira vez.

Em 1975, uma aposta curiosa foi feita na URSS entre cientistas do Instituto de Ciências…

4 horas atrás

Há 50 anos, a inteligência artificial derrotou o campeão soviético de xadrez pela primeira vez.

Em 1975, uma aposta curiosa foi feita na URSS entre cientistas do Instituto de Ciências…

4 horas atrás

Médico do Ritmo – No Ritmo do Coração. Resenha

Processador Intel Core 2 Duo E4600 2.4 GHz / AMD Athlon 64 X2 4600 2.4…

4 horas atrás

A Intel montou um chip de IA gigante a partir de 16 núcleos de computação e 24 módulos HBM5.

A Intel foi a primeira a desenvolver uma arquitetura de chiplets claramente desagregada — as…

5 horas atrás

O chefe da Battlestate Games esclareceu que Escape from Tarkov não foi criado para diversão e entretenimento.

A maioria dos videogames é projetada para proporcionar diversão e entretenimento, mas o jogo de…

7 horas atrás