Os líderes da OpenAI prometem desenvolver IA de forma responsável, embora especialistas nesta área tenham deixado

Após a recente e inesperada demissão de duas figuras-chave da equipa de segurança de IA da OpenAI, os executivos da empresa foram colocados na defensiva enquanto enfrentam uma série de questões públicas sobre a sua estratégia de risco de IA.

Fonte da imagem: Copiloto

Os líderes que partiram – o cientista-chefe Ilya Sutskever e o seu colega Jan Leike – faziam parte da superequipa da OpenAI responsável pelo desenvolvimento de uma IA que fosse compatível com os interesses da humanidade. Sua saída foi supostamente causada por divergências com a administração da empresa sobre a garantia de prioridade global à segurança para que “a IA não destrua o mundo”.

Leike afirmou diretamente que há muito discordava da administração sobre essas questões e que a situação havia atingido um ponto crítico. E Sutzkever até tentou demitir o CEO Sam Altman no ano passado, embora mais tarde ele tenha expressado arrependimento por suas ações.

Após sua saída, o público deu o alarme sobre as prioridades de segurança da OpenAI. Em resposta, Altman e o presidente Greg Brockman divulgaram declarações detalhadas explicando a abordagem da empresa.

Enfatizaram que a OpenAI já deu um contributo importante para garantir o desenvolvimento seguro da IA, em particular, apelando à regulamentação internacional mesmo antes de se tornar generalizada. Altman também propôs a criação de uma agência internacional para garantir testes inteligentes de sistemas de IA.

Brockman garantiu que a OpenAI analisa cuidadosamente os riscos em cada etapa do desenvolvimento e não planeja publicar novos sistemas até que a empresa esteja confiante em sua segurança, mesmo que isso atrase o lançamento.

No entanto, os executivos de segurança de IA que estão deixando o cargo parecem preocupados com o fato de a abordagem atual não fornecer proteção suficiente. Leike disse que essas questões são muito difíceis de resolver e ele está preocupado com o fato de a empresa não estar caminhando na direção certa nesse assunto.

Apesar das garantias da administração, a saída de funcionários importantes lança dúvidas sobre as afirmações da OpenAI sobre a segurança global da IA.

avalanche

Postagens recentes

A construção do gigantesco centro de dados de IA de Trump está paralisada: sem clientes, CEO demitido, ações em queda livre.

O maior projeto de construção de um campus de data center de IA do mundo,…

3 horas atrás

A Alphabet está em negociações com a Marvell para desenvolver dois chips de IA para inferência.

A Alphabet iniciou negociações com a Marvell para desenvolver chips especializados capazes de executar modelos…

5 horas atrás

A Blue Origin reutilizou, pela primeira vez, o primeiro estágio de seu gigantesco foguete New Glen.

A empresa aeroespacial de Jeff Bezos, a Blue Origin, deu um grande passo rumo à…

10 horas atrás

A Microsoft adiciona o Agente de IA à barra de tarefas do Windows 11.

A Microsoft confirmou que não tem planos de abandonar os agentes de IA no Windows…

11 horas atrás

AAEON lança o sistema CEXD-INTRBL baseado em Intel Panther Lake para desenvolvimento de robôs com IA.

A AAEON apresentou o CEXD-INTRBL, um computador industrial de formato compacto projetado para o desenvolvimento…

12 horas atrás

A App Store está prosperando novamente — e a IA pode ter contribuído para isso.

Muitos acreditavam que a inteligência artificial acabaria com os aplicativos móveis. No entanto, o desenvolvimento…

12 horas atrás