Especialista em sistemas de IA pede bombardeio de centros de dados hostis que receberam hardware demais para treinar IA

O especialista em inteligência artificial Eliezer Yudkowsky pediu a limitação do poder de computação para treinamento de IA em todo o mundo. Além disso, ele fez uma proposta bastante ousada – destruir o data center de alta capacidade se algum dos países tentar construir tais capacidades. No entanto, o próprio Yudkovsky fez mais do que qualquer outro para acelerar o desenvolvimento da “inteligência geral artificial” (AGI).

Yudkowsky é especialista em “regular a IA” de acordo com as metas e objetivos definidos pelos desenvolvedores – para que não cause danos acidentalmente ou propositalmente. Ele publicou um artigo na Time Magazine no qual soa desesperadamente o alarme, argumentando que a própria existência da humanidade e até mesmo formas de vida biológica está em questão devido ao desenvolvimento descontrolado da IA ​​- se alguém conseguir construir uma IA produtiva o suficiente capaz de ser consciente de si.

Fonte da imagem: Defense-Imagery/pixabay.com

A OpenAI disse que planeja resolver o problema da “regulação” construindo uma IA que pode ajustar os princípios fundamentais de como outras inteligências artificiais funcionam. Yudkowsky criticou a OpenAI por falta de transparência e enfatizou que uma recente carta aberta assinada por Elon Musk com mil outros especialistas em TI e pedindo uma moratória de seis meses para grandes desenvolvimentos de IA não reflete a situação atual, uma vez que tais pesquisas devem ser interrompidas. para sempre.

Fonte da imagem: Computerizer/pixabay.com

Segundo o cientista, estudar a segurança da IA ​​deve levar décadas, não meses. O cientista pediu a proibição de experimentos em larga escala no estudo da IA ​​para sempre e em todos os lugares, sem exceção para departamentos governamentais e militares. Além disso, ele propôs a conclusão de acordos multilaterais que preveem não apenas restrições à criação de data centers com um grande número de aceleradores, mas também uma redução nas cotas à medida que algoritmos de aprendizado cada vez mais avançados são desenvolvidos.

Se as agências de inteligência descobrirem que um país que abandonou a moratória eterna está comprando componentes e construindo data centers para AGI, esses data centers devem ser destruídos por ataques aéreos, pois qualquer conflito entre países será menos assustador do que uma guerra entre a humanidade e inteligência artificial. Segundo Yudkovsky, ao tentar criar uma mente sobre-humana, em nenhum caso se deve cometer erros – não haverá oportunidade de corrigi-los.

avalanche

Postagens recentes

Não faltam Sony PlayStation 5 Pro – os especuladores estão negociando com prejuízo

No dia anterior, começaram as vendas do console de jogos Sony PS5 Pro, cujo preço…

19 minutos atrás

Sony patenteia um botão para retroceder o jogo

A capacidade de desfazer instantaneamente a última ação pode dar aos jogadores uma vantagem óbvia…

1 hora atrás

Baidu lançará óculos com IA – um análogo do Meta Ray-Ban

A gigante de buscas chinesa e uma das líderes do país na área de inteligência…

2 horas atrás

O telescópio espacial NEOWISE queimou na atmosfera da Terra

Em 1º de novembro de 2024, o telescópio espacial infravermelho NEOWISE da NASA entrou na…

2 horas atrás

Lian Li lançou uma mesa de computador DK07 de US$ 1.400 que permite montar alguns PCs dentro

No início do ano, Lian Li apresentou um protótipo da inovadora mesa de computador DK-07.…

2 horas atrás