Após a recente e inesperada demissão de duas figuras-chave da equipa de segurança de IA da OpenAI, os executivos da empresa foram colocados na defensiva enquanto enfrentam uma série de questões públicas sobre a sua estratégia de risco de IA.

Fonte da imagem: Copiloto

Os líderes que partiram – o cientista-chefe Ilya Sutskever e o seu colega Jan Leike – faziam parte da superequipa da OpenAI responsável pelo desenvolvimento de uma IA que fosse compatível com os interesses da humanidade. Sua saída foi supostamente causada por divergências com a administração da empresa sobre a garantia de prioridade global à segurança para que “a IA não destrua o mundo”.

Leike afirmou diretamente que há muito discordava da administração sobre essas questões e que a situação havia atingido um ponto crítico. E Sutzkever até tentou demitir o CEO Sam Altman no ano passado, embora mais tarde ele tenha expressado arrependimento por suas ações.

Após sua saída, o público deu o alarme sobre as prioridades de segurança da OpenAI. Em resposta, Altman e o presidente Greg Brockman divulgaram declarações detalhadas explicando a abordagem da empresa.

Enfatizaram que a OpenAI já deu um contributo importante para garantir o desenvolvimento seguro da IA, em particular, apelando à regulamentação internacional mesmo antes de se tornar generalizada. Altman também propôs a criação de uma agência internacional para garantir testes inteligentes de sistemas de IA.

Brockman garantiu que a OpenAI analisa cuidadosamente os riscos em cada etapa do desenvolvimento e não planeja publicar novos sistemas até que a empresa esteja confiante em sua segurança, mesmo que isso atrase o lançamento.

No entanto, os executivos de segurança de IA que estão deixando o cargo parecem preocupados com o fato de a abordagem atual não fornecer proteção suficiente. Leike disse que essas questões são muito difíceis de resolver e ele está preocupado com o fato de a empresa não estar caminhando na direção certa nesse assunto.

Apesar das garantias da administração, a saída de funcionários importantes lança dúvidas sobre as afirmações da OpenAI sobre a segurança global da IA.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *