Os chefes da OpenAI, Google DeepMind, Anthropic e outros laboratórios de inteligência artificial alertaram que as tecnologias nas quais estão trabalhando podem ameaçar a existência da humanidade, por isso devem ser categorizadas como riscos sociais, juntamente com pandemias e guerras nucleares.
Fonte da imagem: Gerd Altmann / pixabay.com
«“Reduzir o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos sociais, como pandemias e guerras nucleares”, diz uma carta aberta de uma frase dos líderes da indústria. O documento deve ser publicado pela organização sem fins lucrativos Center for AI Segurança – assinado por mais de 350 líderes, pesquisadores e engenheiros de IA.”
Entre os signatários, em especial, aparecem: o chefe da OpenAI Sam Altman (Sam Altman); Chefe do Google DeepMind Demis Hassabis; O chefe da Anthropic, Dario Amodei, junto com Geoffrey Hinton e Yoshua Bengio, são dois dos três vencedores do Prêmio Turing considerados os padrinhos da inteligência artificial moderna, enquanto o terceiro, Yann LeCun), chefe de pesquisa de IA da Meta*, ainda não assinou.
Há de fato uma preocupação crescente na sociedade sobre o desenvolvimento de sistemas de inteligência artificial. Existe a opinião de que plataformas do porte do ChatGPT podem ser usadas para espalhar desinformação e propaganda, além disso, só na Europa e nos Estados Unidos, 300 milhões de pessoas podem perder o emprego devido à IA. Essas preocupações são compartilhadas por líderes da indústria, que se colocam na posição incomum de argumentar que as tecnologias que desenvolvem representam sérios riscos e devem ser rigorosamente regulamentadas pelo Estado.
Alguns céticos argumentam que as tecnologias de IA ainda são muito imaturas para representar uma ameaça tangível à humanidade, então devemos nos concentrar em questões de curto prazo – respostas tendenciosas e incorretas de sistemas de IA. Outros acreditam que a IA comparável às capacidades humanas aparecerá em um futuro próximo. Para evitar possíveis consequências negativas, os líderes do setor propõem a criação de uma organização destinada a regular a IA – deve ser uma espécie de análogo da Agência Internacional de Energia Atômica (AIEA), que está tentando impedir a proliferação e o uso de armas nucleares.
Em março, mais de mil pesquisadores e representantes da indústria de tecnologia assinaram uma carta aberta pedindo uma suspensão de seis meses de sistemas avançados de IA, declarando-os uma ameaça à humanidade. O próximo documento no original contém apenas 22 palavras – uma redação concisa é projetada para reunir especialistas cujas opiniões podem diferir em determinados assuntos. “Acho que se algo der errado com essa tecnologia, tudo será completamente diferente. E queremos anunciá-lo. Queremos trabalhar com o governo para evitar isso”, disse o CEO da OpenAI, Sam Altman, durante uma audiência recente no Congresso dos EUA.
* Está incluída na lista de associações públicas e organizações religiosas em relação às quais o tribunal decidiu definitivamente liquidar ou proibir atividades com base na Lei Federal nº 114-FZ de 25 de julho de 2002 “No combate a extremistas atividade”.
A Apple lançará um novo iPhone este mês, segundo reportagem do Macwelt, citando fontes confiáveis.…
Esta semana, as principais empresas de computação em nuvem dos EUA divulgaram seus resultados trimestrais…
Ao longo de sua existência, a Razer se consolidou como uma das primeiras marcas focadas…
Cientistas chineses do Instituto Noroeste de Tecnologia Nuclear em Xi'an desenvolveram o TPG1000Cs, que pode…
A Logos Space Services, sediada em Redwood City, Califórnia, recebeu aprovação da Comissão Federal de…
A JLab, conhecida por seus fones de ouvido compactos, acessíveis e altamente funcionais, totalmente sem…