Os líderes da OpenAI prometem desenvolver IA de forma responsável, embora especialistas nesta área tenham deixado

Após a recente e inesperada demissão de duas figuras-chave da equipa de segurança de IA da OpenAI, os executivos da empresa foram colocados na defensiva enquanto enfrentam uma série de questões públicas sobre a sua estratégia de risco de IA.

Fonte da imagem: Copiloto

Os líderes que partiram – o cientista-chefe Ilya Sutskever e o seu colega Jan Leike – faziam parte da superequipa da OpenAI responsável pelo desenvolvimento de uma IA que fosse compatível com os interesses da humanidade. Sua saída foi supostamente causada por divergências com a administração da empresa sobre a garantia de prioridade global à segurança para que “a IA não destrua o mundo”.

Leike afirmou diretamente que há muito discordava da administração sobre essas questões e que a situação havia atingido um ponto crítico. E Sutzkever até tentou demitir o CEO Sam Altman no ano passado, embora mais tarde ele tenha expressado arrependimento por suas ações.

Após sua saída, o público deu o alarme sobre as prioridades de segurança da OpenAI. Em resposta, Altman e o presidente Greg Brockman divulgaram declarações detalhadas explicando a abordagem da empresa.

Enfatizaram que a OpenAI já deu um contributo importante para garantir o desenvolvimento seguro da IA, em particular, apelando à regulamentação internacional mesmo antes de se tornar generalizada. Altman também propôs a criação de uma agência internacional para garantir testes inteligentes de sistemas de IA.

Brockman garantiu que a OpenAI analisa cuidadosamente os riscos em cada etapa do desenvolvimento e não planeja publicar novos sistemas até que a empresa esteja confiante em sua segurança, mesmo que isso atrase o lançamento.

No entanto, os executivos de segurança de IA que estão deixando o cargo parecem preocupados com o fato de a abordagem atual não fornecer proteção suficiente. Leike disse que essas questões são muito difíceis de resolver e ele está preocupado com o fato de a empresa não estar caminhando na direção certa nesse assunto.

Apesar das garantias da administração, a saída de funcionários importantes lança dúvidas sobre as afirmações da OpenAI sobre a segurança global da IA.

avalanche

Postagens recentes

O sétimo patch para Baldur’s Gate 3 será lançado na próxima semana

A Larian Studios está preparada para lançar o sétimo grande patch para seu RPG de…

1 hora atrás

A explosão da Starship em novembro do ano passado levou a um enorme buraco na ionosfera

As explosões do primeiro estágio do foguete Starship da SpaceX e de seu módulo principal,…

4 horas atrás

SMIC chinês está três anos atrás do TSMC taiwanês, de acordo com especialistas japoneses

Analistas americanos, como observado anteriormente, estimam em cinco anos a lacuna tecnológica entre os fabricantes…

7 horas atrás

OpenAI discute possibilidade de mudar sua estrutura organizacional para atrair investidores

A startup OpenAI possui uma estrutura organizacional bastante incomum para empresas que buscam atrair recursos…

8 horas atrás

Graças a Deus você está aqui! — 38 fatias. Análise

Jogado no pc Ei, como você está aí! Precisamos ir a Barnsworth e nos encontrar…

16 horas atrás

Cerebras Systems lançou a plataforma de IA “mais poderosa do mundo” para inferência

A startup americana Cerebras Systems, que desenvolve chips para sistemas de aprendizado de máquina e…

18 horas atrás