A equipe de especialistas da OpenAI para proteger a humanidade contra ameaças associadas à IA existe há menos de um ano

A saída de um dos fundadores desta startup, Ilya Sutskever, da OpenAI, como explica a CNBC, foi um dos motivos do colapso da equipa de especialistas que gerem os riscos de longo prazo associados à implementação da inteligência artificial. Esta unidade estrutural, concebida para proteger a humanidade das ameaças decorrentes da propagação da IA, não existiu na OpenAI nem durante um ano.

Fonte da imagem: Universidade de Toronto

De acordo com a CNBC, o próprio Ilya Sutskever (foto acima), que liderou pesquisas científicas e pesquisas na OpenAI, há muito expressa preocupação com tais riscos. Ele também chefiou a equipe especializada em gestão de riscos junto com Jan Leike, mas este último também deixou o quadro da empresa na última semana. Formada no ano passado, a equipa pretendia originalmente concentrar-se na minimização dos riscos associados à disseminação de tecnologias de inteligência artificial, e a OpenAI pretendia dedicar até 20% dos seus recursos computacionais a esta necessidade nos próximos quatro anos. Após a saída dos líderes da equipe, os demais membros da equipe foram designados para outros cargos dentro da empresa.

Ontem, Jan Leike disse, comentando sua saída da OpenAI, que “a cultura e os processos de segurança deram lugar a produtos brilhantes”. Tal como aconteceu com a saída de Ilya Sutskever, o atual CEO da OpenAI, Sam Altman, lamentou a demissão de Jan Leike. Segundo este último, durante muito tempo não partilhou a opinião da gestão sobre as direcções prioritárias do desenvolvimento da empresa, e agora estas contradições atingiram um significado crítico. Ele acredita que a OpenAI deveria prestar mais atenção à segurança e ao impacto das tecnologias que cria na sociedade. Nos últimos meses, a equipe dedicada da OpenAI, segundo Leike, esteve literalmente “navegando contra o vento”. Tornou-se cada vez mais difícil atingir os objetivos definidos; os recursos eram muito limitados; Leike continua convencido de que a OpenAI deve ser uma empresa que prioriza a segurança no desenvolvimento de inteligência artificial generativa, uma vez que “criar máquinas superiores aos humanos é uma tarefa muito perigosa”.

avalanche

Postagens recentes

Reddit irá reprimir os criadores de conteúdo de treinamento de IA

A administração da plataforma Reddit anunciou que atualizará as exceções para robôs (arquivo robots.txt), que…

6 dias atrás

O desenvolvedor do Robotaxi, Cruise, é chefiado por um ex-executivo do Xbox

Marc Whitten, um engenheiro e veterano da indústria de jogos que esteve na vanguarda do…

6 dias atrás

Em resposta a inúmeras reclamações, o primeiro patch para Elden Ring: Shadow of the Erdtree tornou os jogadores mais fortes

A editora Bandai Namco e os desenvolvedores do estúdio FromSoftware anunciaram o lançamento do primeiro…

6 dias atrás