Especialista em sistemas de IA pede bombardeio de centros de dados hostis que receberam hardware demais para treinar IA

O especialista em inteligência artificial Eliezer Yudkowsky pediu a limitação do poder de computação para treinamento de IA em todo o mundo. Além disso, ele fez uma proposta bastante ousada – destruir o data center de alta capacidade se algum dos países tentar construir tais capacidades. No entanto, o próprio Yudkovsky fez mais do que qualquer outro para acelerar o desenvolvimento da “inteligência geral artificial” (AGI).

Yudkowsky é especialista em “regular a IA” de acordo com as metas e objetivos definidos pelos desenvolvedores – para que não cause danos acidentalmente ou propositalmente. Ele publicou um artigo na Time Magazine no qual soa desesperadamente o alarme, argumentando que a própria existência da humanidade e até mesmo formas de vida biológica está em questão devido ao desenvolvimento descontrolado da IA ​​- se alguém conseguir construir uma IA produtiva o suficiente capaz de ser consciente de si.

Fonte da imagem: Defense-Imagery/pixabay.com

A OpenAI disse que planeja resolver o problema da “regulação” construindo uma IA que pode ajustar os princípios fundamentais de como outras inteligências artificiais funcionam. Yudkowsky criticou a OpenAI por falta de transparência e enfatizou que uma recente carta aberta assinada por Elon Musk com mil outros especialistas em TI e pedindo uma moratória de seis meses para grandes desenvolvimentos de IA não reflete a situação atual, uma vez que tais pesquisas devem ser interrompidas. para sempre.

Fonte da imagem: Computerizer/pixabay.com

Segundo o cientista, estudar a segurança da IA ​​deve levar décadas, não meses. O cientista pediu a proibição de experimentos em larga escala no estudo da IA ​​para sempre e em todos os lugares, sem exceção para departamentos governamentais e militares. Além disso, ele propôs a conclusão de acordos multilaterais que preveem não apenas restrições à criação de data centers com um grande número de aceleradores, mas também uma redução nas cotas à medida que algoritmos de aprendizado cada vez mais avançados são desenvolvidos.

Se as agências de inteligência descobrirem que um país que abandonou a moratória eterna está comprando componentes e construindo data centers para AGI, esses data centers devem ser destruídos por ataques aéreos, pois qualquer conflito entre países será menos assustador do que uma guerra entre a humanidade e inteligência artificial. Segundo Yudkovsky, ao tentar criar uma mente sobre-humana, em nenhum caso se deve cometer erros – não haverá oportunidade de corrigi-los.

avalanche

Postagens recentes

A NASA revelou detalhes da próxima missão lunar Artemis III, que não irá à Lua.

A NASA revelou alguns detalhes da missão tripulada Artemis III, que testará operações de encontro…

19 minutos atrás

Apresentado o Gabinete para PC Portal Advanced com Refrigeração Líquida e Montagem na Parede – A partir de US$ 499

A Singularity Computers lançou o Portal Advanced, um gabinete para montagem na parede. Ele oferece…

47 minutos atrás

A Apple abriu o iPhone para fones de ouvido e relógios de terceiros, mas apenas em uma região.

A Apple disponibilizou diversos recursos do iPhone, antes exclusivos de dispositivos Apple, para fones de…

1 hora atrás

O Windows 11 aprenderá a reverter automaticamente drivers com problemas para versões estáveis.

A Microsoft vai introduzir uma opção no sistema operacional Windows 11 para reverter automaticamente drivers…

1 hora atrás

A Intel continua a perder participação no mercado de processadores, enquanto a AMD fortalece sua posição em PCs e laptops.

O primeiro trimestre de 2026 provou ser bastante favorável para a AMD: a empresa conseguiu…

1 hora atrás

A Cisco vai demitir 4.000 funcionários e, em troca, oferecer-lhes treinamento na plataforma Cisco U.

A Cisco planeja demitir 5% de sua força de trabalho, oferecendo a esses funcionários treinamento…

2 horas atrás