Os líderes da OpenAI prometem desenvolver IA de forma responsável, embora especialistas nesta área tenham deixado

Após a recente e inesperada demissão de duas figuras-chave da equipa de segurança de IA da OpenAI, os executivos da empresa foram colocados na defensiva enquanto enfrentam uma série de questões públicas sobre a sua estratégia de risco de IA.

Fonte da imagem: Copiloto

Os líderes que partiram – o cientista-chefe Ilya Sutskever e o seu colega Jan Leike – faziam parte da superequipa da OpenAI responsável pelo desenvolvimento de uma IA que fosse compatível com os interesses da humanidade. Sua saída foi supostamente causada por divergências com a administração da empresa sobre a garantia de prioridade global à segurança para que “a IA não destrua o mundo”.

Leike afirmou diretamente que há muito discordava da administração sobre essas questões e que a situação havia atingido um ponto crítico. E Sutzkever até tentou demitir o CEO Sam Altman no ano passado, embora mais tarde ele tenha expressado arrependimento por suas ações.

Após sua saída, o público deu o alarme sobre as prioridades de segurança da OpenAI. Em resposta, Altman e o presidente Greg Brockman divulgaram declarações detalhadas explicando a abordagem da empresa.

Enfatizaram que a OpenAI já deu um contributo importante para garantir o desenvolvimento seguro da IA, em particular, apelando à regulamentação internacional mesmo antes de se tornar generalizada. Altman também propôs a criação de uma agência internacional para garantir testes inteligentes de sistemas de IA.

Brockman garantiu que a OpenAI analisa cuidadosamente os riscos em cada etapa do desenvolvimento e não planeja publicar novos sistemas até que a empresa esteja confiante em sua segurança, mesmo que isso atrase o lançamento.

No entanto, os executivos de segurança de IA que estão deixando o cargo parecem preocupados com o fato de a abordagem atual não fornecer proteção suficiente. Leike disse que essas questões são muito difíceis de resolver e ele está preocupado com o fato de a empresa não estar caminhando na direção certa nesse assunto.

Apesar das garantias da administração, a saída de funcionários importantes lança dúvidas sobre as afirmações da OpenAI sobre a segurança global da IA.

avalanche

Postagens recentes

Os recursos de IA em aplicativos Meta são usados ​​por 400 milhões de pessoas mensalmente

As ferramentas alimentadas por IA da Meta✴ Platforms, disponíveis no Facebook✴, Instagram✴, WhatsApp e Threads,…

2 horas atrás

O popular jogo de luta de anime Guilty Gear Strive chegará ao Nintendo Switch no início de 2025

Os desenvolvedores de Guilty Gear Strive do estúdio japonês Arc System Works anunciaram que seu…

3 horas atrás

O sétimo patch para Baldur’s Gate 3 será lançado na próxima semana

A Larian Studios está preparada para lançar o sétimo grande patch para seu RPG de…

5 horas atrás

A explosão da Starship em novembro do ano passado levou a um enorme buraco na ionosfera

As explosões do primeiro estágio do foguete Starship da SpaceX e de seu módulo principal,…

7 horas atrás

SMIC chinês está três anos atrás do TSMC taiwanês, de acordo com especialistas japoneses

Analistas americanos, como observado anteriormente, estimam em cinco anos a lacuna tecnológica entre os fabricantes…

11 horas atrás