A equipe de especialistas da OpenAI para proteger a humanidade contra ameaças associadas à IA existe há menos de um ano

A saída de um dos fundadores desta startup, Ilya Sutskever, da OpenAI, como explica a CNBC, foi um dos motivos do colapso da equipa de especialistas que gerem os riscos de longo prazo associados à implementação da inteligência artificial. Esta unidade estrutural, concebida para proteger a humanidade das ameaças decorrentes da propagação da IA, não existiu na OpenAI nem durante um ano.

Fonte da imagem: Universidade de Toronto

De acordo com a CNBC, o próprio Ilya Sutskever (foto acima), que liderou pesquisas científicas e pesquisas na OpenAI, há muito expressa preocupação com tais riscos. Ele também chefiou a equipe especializada em gestão de riscos junto com Jan Leike, mas este último também deixou o quadro da empresa na última semana. Formada no ano passado, a equipa pretendia originalmente concentrar-se na minimização dos riscos associados à disseminação de tecnologias de inteligência artificial, e a OpenAI pretendia dedicar até 20% dos seus recursos computacionais a esta necessidade nos próximos quatro anos. Após a saída dos líderes da equipe, os demais membros da equipe foram designados para outros cargos dentro da empresa.

Ontem, Jan Leike disse, comentando sua saída da OpenAI, que “a cultura e os processos de segurança deram lugar a produtos brilhantes”. Tal como aconteceu com a saída de Ilya Sutskever, o atual CEO da OpenAI, Sam Altman, lamentou a demissão de Jan Leike. Segundo este último, durante muito tempo não partilhou a opinião da gestão sobre as direcções prioritárias do desenvolvimento da empresa, e agora estas contradições atingiram um significado crítico. Ele acredita que a OpenAI deveria prestar mais atenção à segurança e ao impacto das tecnologias que cria na sociedade. Nos últimos meses, a equipe dedicada da OpenAI, segundo Leike, esteve literalmente “navegando contra o vento”. Tornou-se cada vez mais difícil atingir os objetivos definidos; os recursos eram muito limitados; Leike continua convencido de que a OpenAI deve ser uma empresa que prioriza a segurança no desenvolvimento de inteligência artificial generativa, uma vez que “criar máquinas superiores aos humanos é uma tarefa muito perigosa”.

avalanche

Postagens recentes

Tim Cook publicou uma carta de despedida por ocasião de sua saída do cargo de CEO da Apple.

Antes de deixar o cargo de CEO da Apple, Tim Cook escreveu uma carta aberta…

33 minutos atrás

O novo CEO, Ternus, terá que provar aos investidores que a Apple não perdeu a corrida da IA.

O ano de aniversário da Apple finalmente trouxe mudanças de gestão há muito esperadas: Tim…

33 minutos atrás

O Instagram começou a converter fotos coloridas em preto e branco; os desenvolvedores já identificaram a causa do problema.

A equipe do Instagram pediu aos usuários que não se preocupassem caso suas fotos coloridas…

33 minutos atrás

A espaçonave Progress MS-32 concluiu sua missão de forma espetacular, desintegrando-se na atmosfera.

A espaçonave de carga Progress MS-32 completou sua missão, saiu de órbita, reentrou na atmosfera…

1 hora atrás

Jony Srouji está à frente do desenvolvimento de dispositivos da Apple.

Até recentemente, Johny Srouji, de 62 anos, atuava como vice-presidente sênior de engenharia de hardware…

1 hora atrás