Os líderes da OpenAI prometem desenvolver IA de forma responsável, embora especialistas nesta área tenham deixado

Após a recente e inesperada demissão de duas figuras-chave da equipa de segurança de IA da OpenAI, os executivos da empresa foram colocados na defensiva enquanto enfrentam uma série de questões públicas sobre a sua estratégia de risco de IA.

Fonte da imagem: Copiloto

Os líderes que partiram – o cientista-chefe Ilya Sutskever e o seu colega Jan Leike – faziam parte da superequipa da OpenAI responsável pelo desenvolvimento de uma IA que fosse compatível com os interesses da humanidade. Sua saída foi supostamente causada por divergências com a administração da empresa sobre a garantia de prioridade global à segurança para que “a IA não destrua o mundo”.

Leike afirmou diretamente que há muito discordava da administração sobre essas questões e que a situação havia atingido um ponto crítico. E Sutzkever até tentou demitir o CEO Sam Altman no ano passado, embora mais tarde ele tenha expressado arrependimento por suas ações.

Após sua saída, o público deu o alarme sobre as prioridades de segurança da OpenAI. Em resposta, Altman e o presidente Greg Brockman divulgaram declarações detalhadas explicando a abordagem da empresa.

Enfatizaram que a OpenAI já deu um contributo importante para garantir o desenvolvimento seguro da IA, em particular, apelando à regulamentação internacional mesmo antes de se tornar generalizada. Altman também propôs a criação de uma agência internacional para garantir testes inteligentes de sistemas de IA.

Brockman garantiu que a OpenAI analisa cuidadosamente os riscos em cada etapa do desenvolvimento e não planeja publicar novos sistemas até que a empresa esteja confiante em sua segurança, mesmo que isso atrase o lançamento.

No entanto, os executivos de segurança de IA que estão deixando o cargo parecem preocupados com o fato de a abordagem atual não fornecer proteção suficiente. Leike disse que essas questões são muito difíceis de resolver e ele está preocupado com o fato de a empresa não estar caminhando na direção certa nesse assunto.

Apesar das garantias da administração, a saída de funcionários importantes lança dúvidas sobre as afirmações da OpenAI sobre a segurança global da IA.

avalanche

Postagens recentes

Uma balsa hidrofoil totalmente elétrica estabeleceu um recorde ao percorrer 300 km em três dias.

A incomum balsa hidrofoil totalmente elétrica P-12, fabricada pela empresa sueca Candela, estabeleceu um recorde…

47 minutos atrás

A Anthropic prometeu manter o Claude livre de anúncios e zombou da abordagem oposta da ChatGPT.

A Anthropic anunciou que não tem planos de adicionar anúncios ao seu chatbot de IA,…

59 minutos atrás

A AnTuTu publicou um ranking dos smartphones e tablets Android mais rápidos de janeiro.

Os desenvolvedores do AnTuTu, o benchmark para dispositivos móveis, publicaram um ranking dos smartphones e…

59 minutos atrás

Agentes de IA foram treinados para rastrear e corrigir erros de impressão 3D em tempo real.

Pesquisadores da Universidade Carnegie Mellon (EUA) desenvolveram um sistema que utiliza diversos modelos de linguagem…

1 hora atrás