A equipe de especialistas da OpenAI para proteger a humanidade contra ameaças associadas à IA existe há menos de um ano

A saída de um dos fundadores desta startup, Ilya Sutskever, da OpenAI, como explica a CNBC, foi um dos motivos do colapso da equipa de especialistas que gerem os riscos de longo prazo associados à implementação da inteligência artificial. Esta unidade estrutural, concebida para proteger a humanidade das ameaças decorrentes da propagação da IA, não existiu na OpenAI nem durante um ano.

Fonte da imagem: Universidade de Toronto

De acordo com a CNBC, o próprio Ilya Sutskever (foto acima), que liderou pesquisas científicas e pesquisas na OpenAI, há muito expressa preocupação com tais riscos. Ele também chefiou a equipe especializada em gestão de riscos junto com Jan Leike, mas este último também deixou o quadro da empresa na última semana. Formada no ano passado, a equipa pretendia originalmente concentrar-se na minimização dos riscos associados à disseminação de tecnologias de inteligência artificial, e a OpenAI pretendia dedicar até 20% dos seus recursos computacionais a esta necessidade nos próximos quatro anos. Após a saída dos líderes da equipe, os demais membros da equipe foram designados para outros cargos dentro da empresa.

Ontem, Jan Leike disse, comentando sua saída da OpenAI, que “a cultura e os processos de segurança deram lugar a produtos brilhantes”. Tal como aconteceu com a saída de Ilya Sutskever, o atual CEO da OpenAI, Sam Altman, lamentou a demissão de Jan Leike. Segundo este último, durante muito tempo não partilhou a opinião da gestão sobre as direcções prioritárias do desenvolvimento da empresa, e agora estas contradições atingiram um significado crítico. Ele acredita que a OpenAI deveria prestar mais atenção à segurança e ao impacto das tecnologias que cria na sociedade. Nos últimos meses, a equipe dedicada da OpenAI, segundo Leike, esteve literalmente “navegando contra o vento”. Tornou-se cada vez mais difícil atingir os objetivos definidos; os recursos eram muito limitados; Leike continua convencido de que a OpenAI deve ser uma empresa que prioriza a segurança no desenvolvimento de inteligência artificial generativa, uma vez que “criar máquinas superiores aos humanos é uma tarefa muito perigosa”.

avalanche

Postagens recentes

Cientistas chineses conseguiram provar a existência de um núcleo sólido em Marte

Embora não seja o vizinho mais próximo da Terra, Marte há muito tempo atrai a…

38 minutos atrás

A Intel decidirá sobre a viabilidade de dominar a tecnologia de processo 14A não antes do próximo ano

Como vocês sabem, este ano a Intel intrigou os investidores com a afirmação de que…

1 hora atrás

Dois pacientes no Canadá recebem implantes cerebrais Neuralink pela primeira vez

O vizinho do norte dos Estados Unidos tornou-se o primeiro país a receber implantes cerebrais…

3 horas atrás

A Internet via satélite da Amazon é três vezes mais rápida que a Starlink – Download de 1,28 Gbps

A Amazon testou com sucesso seu sistema de internet via satélite Projeto Kuiper, alcançando velocidades…

6 horas atrás