A equipe de especialistas da OpenAI para proteger a humanidade contra ameaças associadas à IA existe há menos de um ano

A saída de um dos fundadores desta startup, Ilya Sutskever, da OpenAI, como explica a CNBC, foi um dos motivos do colapso da equipa de especialistas que gerem os riscos de longo prazo associados à implementação da inteligência artificial. Esta unidade estrutural, concebida para proteger a humanidade das ameaças decorrentes da propagação da IA, não existiu na OpenAI nem durante um ano.

Fonte da imagem: Universidade de Toronto

De acordo com a CNBC, o próprio Ilya Sutskever (foto acima), que liderou pesquisas científicas e pesquisas na OpenAI, há muito expressa preocupação com tais riscos. Ele também chefiou a equipe especializada em gestão de riscos junto com Jan Leike, mas este último também deixou o quadro da empresa na última semana. Formada no ano passado, a equipa pretendia originalmente concentrar-se na minimização dos riscos associados à disseminação de tecnologias de inteligência artificial, e a OpenAI pretendia dedicar até 20% dos seus recursos computacionais a esta necessidade nos próximos quatro anos. Após a saída dos líderes da equipe, os demais membros da equipe foram designados para outros cargos dentro da empresa.

Ontem, Jan Leike disse, comentando sua saída da OpenAI, que “a cultura e os processos de segurança deram lugar a produtos brilhantes”. Tal como aconteceu com a saída de Ilya Sutskever, o atual CEO da OpenAI, Sam Altman, lamentou a demissão de Jan Leike. Segundo este último, durante muito tempo não partilhou a opinião da gestão sobre as direcções prioritárias do desenvolvimento da empresa, e agora estas contradições atingiram um significado crítico. Ele acredita que a OpenAI deveria prestar mais atenção à segurança e ao impacto das tecnologias que cria na sociedade. Nos últimos meses, a equipe dedicada da OpenAI, segundo Leike, esteve literalmente “navegando contra o vento”. Tornou-se cada vez mais difícil atingir os objetivos definidos; os recursos eram muito limitados; Leike continua convencido de que a OpenAI deve ser uma empresa que prioriza a segurança no desenvolvimento de inteligência artificial generativa, uma vez que “criar máquinas superiores aos humanos é uma tarefa muito perigosa”.

avalanche

Postagens recentes

WhatsApp testa edição de fotos com IA usando consultas de texto

O popular mensageiro começou a testar um recurso inovador que permite aos usuários editar fotos…

2 horas atrás

A Europa lançará amanhã pela primeira vez o foguete Ariane 6 – ele deve se tornar uma alternativa ao americano SpaceX Falcon 9

O veículo de lançamento pesado Ariane 6 do consórcio europeu Arianespace está programado para decolar…

3 horas atrás

Microsoft patenteia tecnologia para proteção contra “hacking visual” usando rastreamento ocular

A Microsoft registrou uma patente para uma nova tecnologia que usa rastreamento ocular para proteger…

3 horas atrás

“Foi um grande fracasso”: criador de Okami revela o que deu errado

Em 2024, o jogo de aventura Okami é considerado um clássico da Capcom, mas no…

3 horas atrás