A ex-funcionária da OpenAI, Gretchen Krueger, disse que deixou a empresa em 14 de maio devido a preocupações de que a inteligência artificial desenvolvida pela OpenAI pudesse representar uma ameaça para a humanidade. Ela tomou essa “decisão difícil” pouco antes de Ilya Sutskever e Jan Leike, que dirigiam a agora extinta divisão Superalignment, anunciarem sua saída.
«Pedi demissão horas antes de ouvir as notícias sobre [Ilya Sutskver] e [Jan Lake] e tomei minha decisão de forma independente. Compartilho suas preocupações. Também tenho outras preocupações sobrepostas”, escreveu Kruger na mídia social X. Ela disse que a empresa precisa trabalhar para melhorar “os processos de tomada de decisão; responsabilidade; transparência; documentação; garantir o cumprimento das políticas; cautela no uso de nossas tecnologias proprietárias; e reduzir os impactos sobre a desigualdade, os direitos e o meio ambiente.”
Krueger, que trabalhou como especialista em políticas para o estudo, disse que estas preocupações são partilhadas pelo público – elas “podem influenciar como e por quem os aspectos do futuro podem ser determinados” e que estas preocupações não devem ser “mal interpretadas como estreitas, especulativas ou irrelevante » para a criação e operação da IA. “Uma forma de as empresas tecnológicas poderem desarmar aqueles que tentam responsabilizá-las é semeando a divisão entre aqueles que levantam preocupações ou desafiam o seu domínio. Estou extremamente preocupado em evitar isso”, disse Kruger.
O cientista-chefe e cofundador da OpenAI, Ilya Sutskever, e o executivo-chefe Jan Leike, que deixou a OpenAI na semana passada, lideraram a divisão Superalignment, que desenvolveu medidas de segurança para evitar que a IA forte (AGI) fique fora de controle. Segundo Leike, a empresa priorizou “produtos brilhantes” em detrimento das medidas de segurança, deixando a Superalignment lutando por recursos e encontrando cada vez mais dificuldade para realizar seu trabalho.