Os principais desenvolvedores de IA chamaram seus produtos de uma ameaça comparável a uma pandemia e guerra nuclear

Os chefes da OpenAI, Google DeepMind, Anthropic e outros laboratórios de inteligência artificial alertaram que as tecnologias nas quais estão trabalhando podem ameaçar a existência da humanidade, por isso devem ser categorizadas como riscos sociais, juntamente com pandemias e guerras nucleares.

Fonte da imagem: Gerd Altmann / pixabay.com

«“Reduzir o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos sociais, como pandemias e guerras nucleares”, diz uma carta aberta de uma frase dos líderes da indústria. O documento deve ser publicado pela organização sem fins lucrativos Center for AI Segurança – assinado por mais de 350 líderes, pesquisadores e engenheiros de IA.”

Entre os signatários, em especial, aparecem: o chefe da OpenAI Sam Altman (Sam Altman); Chefe do Google DeepMind Demis Hassabis; O chefe da Anthropic, Dario Amodei, junto com Geoffrey Hinton e Yoshua Bengio, são dois dos três vencedores do Prêmio Turing considerados os padrinhos da inteligência artificial moderna, enquanto o terceiro, Yann LeCun), chefe de pesquisa de IA da Meta*, ainda não assinou.

Há de fato uma preocupação crescente na sociedade sobre o desenvolvimento de sistemas de inteligência artificial. Existe a opinião de que plataformas do porte do ChatGPT podem ser usadas para espalhar desinformação e propaganda, além disso, só na Europa e nos Estados Unidos, 300 milhões de pessoas podem perder o emprego devido à IA. Essas preocupações são compartilhadas por líderes da indústria, que se colocam na posição incomum de argumentar que as tecnologias que desenvolvem representam sérios riscos e devem ser rigorosamente regulamentadas pelo Estado.

Alguns céticos argumentam que as tecnologias de IA ainda são muito imaturas para representar uma ameaça tangível à humanidade, então devemos nos concentrar em questões de curto prazo – respostas tendenciosas e incorretas de sistemas de IA. Outros acreditam que a IA comparável às capacidades humanas aparecerá em um futuro próximo. Para evitar possíveis consequências negativas, os líderes do setor propõem a criação de uma organização destinada a regular a IA – deve ser uma espécie de análogo da Agência Internacional de Energia Atômica (AIEA), que está tentando impedir a proliferação e o uso de armas nucleares.

Em março, mais de mil pesquisadores e representantes da indústria de tecnologia assinaram uma carta aberta pedindo uma suspensão de seis meses de sistemas avançados de IA, declarando-os uma ameaça à humanidade. O próximo documento no original contém apenas 22 palavras – uma redação concisa é projetada para reunir especialistas cujas opiniões podem diferir em determinados assuntos. “Acho que se algo der errado com essa tecnologia, tudo será completamente diferente. E queremos anunciá-lo. Queremos trabalhar com o governo para evitar isso”, disse o CEO da OpenAI, Sam Altman, durante uma audiência recente no Congresso dos EUA.

* Está incluída na lista de associações públicas e organizações religiosas em relação às quais o tribunal decidiu definitivamente liquidar ou proibir atividades com base na Lei Federal nº 114-FZ de 25 de julho de 2002 “No combate a extremistas atividade”.

avalanche

Postagens recentes

A China enviou seus processadores Loongson ao espaço – uma nuvem será lançada na estação orbital Tiangong

Em 15 de novembro de 2024, a nave de carga Tianzhou-8, entre outras coisas, entregou…

7 minutos atrás

Brasil ameaça Apple com multas diárias por restrições na App Store

A autoridade antitruste do Brasil ordenou que a Apple suspendesse a restrição da loja de…

1 hora atrás