A equipe de especialistas da OpenAI para proteger a humanidade contra ameaças associadas à IA existe há menos de um ano

A saída de um dos fundadores desta startup, Ilya Sutskever, da OpenAI, como explica a CNBC, foi um dos motivos do colapso da equipa de especialistas que gerem os riscos de longo prazo associados à implementação da inteligência artificial. Esta unidade estrutural, concebida para proteger a humanidade das ameaças decorrentes da propagação da IA, não existiu na OpenAI nem durante um ano.

Fonte da imagem: Universidade de Toronto

De acordo com a CNBC, o próprio Ilya Sutskever (foto acima), que liderou pesquisas científicas e pesquisas na OpenAI, há muito expressa preocupação com tais riscos. Ele também chefiou a equipe especializada em gestão de riscos junto com Jan Leike, mas este último também deixou o quadro da empresa na última semana. Formada no ano passado, a equipa pretendia originalmente concentrar-se na minimização dos riscos associados à disseminação de tecnologias de inteligência artificial, e a OpenAI pretendia dedicar até 20% dos seus recursos computacionais a esta necessidade nos próximos quatro anos. Após a saída dos líderes da equipe, os demais membros da equipe foram designados para outros cargos dentro da empresa.

Ontem, Jan Leike disse, comentando sua saída da OpenAI, que “a cultura e os processos de segurança deram lugar a produtos brilhantes”. Tal como aconteceu com a saída de Ilya Sutskever, o atual CEO da OpenAI, Sam Altman, lamentou a demissão de Jan Leike. Segundo este último, durante muito tempo não partilhou a opinião da gestão sobre as direcções prioritárias do desenvolvimento da empresa, e agora estas contradições atingiram um significado crítico. Ele acredita que a OpenAI deveria prestar mais atenção à segurança e ao impacto das tecnologias que cria na sociedade. Nos últimos meses, a equipe dedicada da OpenAI, segundo Leike, esteve literalmente “navegando contra o vento”. Tornou-se cada vez mais difícil atingir os objetivos definidos; os recursos eram muito limitados; Leike continua convencido de que a OpenAI deve ser uma empresa que prioriza a segurança no desenvolvimento de inteligência artificial generativa, uma vez que “criar máquinas superiores aos humanos é uma tarefa muito perigosa”.

avalanche

Postagens recentes

O ex-chefe de pesquisa Ilya Sutskever possui aproximadamente US$ 7 bilhões em ações da OpenAI.

Esta semana, foi a vez do ex-diretor de pesquisa da OpenAI, Ilya Sutskever, depor no…

31 minutos atrás

A Microsoft esperava lucrar US$ 92 bilhões com o investimento inicial na OpenAI.

Na nova etapa da batalha judicial entre Elon Musk e a OpenAI, a Microsoft e…

1 hora atrás

O Google poderá apresentar um novo modelo de geração de vídeo Omni no I/O 2026.

O novo modelo Gemini Omni do Google já fez suas primeiras aparições, demonstrando resultados impressionantes…

2 horas atrás

O iOS 26.5 traz criptografia de ponta a ponta para mensagens RCS multiplataforma.

A Apple lançou o iOS 26.5 para o público após seis semanas de testes beta.…

2 horas atrás

A Meta✴ teve que estender a vida útil de seus servidores devido à falta de memória.

A Meta✴ foi obrigada a estender a vida útil de alguns de seus servidores de…

7 horas atrás