A OpenAI é considerada líder global na corrida para criar uma inteligência artificial forte que seja tão poderosa quanto os humanos. Entretanto, os funcionários da empresa aparecem regularmente na imprensa e em podcasts e expressam fortes preocupações sobre a segurança dos sistemas que desenvolve.

Fonte da imagem: Growtika/unsplash.com

Recentemente, a OpenAI lançou um produto cujos testes de segurança foram realizados às pressas, mas a empresa comemorou o lançamento do próprio produto em grande escala. “Eles planejaram a festa de lançamento antes de saberem se o produto era seguro. Basicamente falhamos no processo”, disse uma fonte anônima ao Washington Post. Esta não é a primeira mensagem deste tipo – anteriormente, antigos e atuais funcionários da OpenAI assinaram uma carta aberta pedindo melhorias nas práticas de segurança e transparência da empresa logo após a saída dos responsáveis ​​por estas questões, Jan Leike e Ilya Sutskever.

No papel, porém, tudo parece completamente diferente. Uma das disposições do estatuto da OpenAI afirma que se outro jogador conseguir uma IA forte, a empresa ajudará a garantir a segurança, em vez de competir com um concorrente. E a natureza fechada dos modelos de IA da OpenAI também se deve a questões de segurança. “Estamos orgulhosos do nosso histórico de fornecimento dos sistemas de IA mais eficazes e seguros e acreditamos na nossa abordagem científica para resolver ameaças. Um debate robusto é fundamental dada a importância desta tecnologia, e continuaremos a nos envolver com governos, sociedade civil e outras comunidades ao redor do mundo em nome de nossa missão”, disse a porta-voz da OpenAI, Taya Christianson, ao The Verge.

A empresa “não economizou” no lado da segurança ao lançar seu modelo GPT-4o de última geração, garantiu Lindsey Held, outro porta-voz da OpenAI, ao Washington Post. Mas uma fonte anônima disse que o período de exame deste produto foi reduzido para apenas uma semana. Anteriormente, a empresa anunciou o lançamento de um projeto conjunto com o Laboratório Nacional de Los Alamos para identificar riscos potenciais do uso de IA em trabalhos científicos. Também ficou conhecido a existência de um sistema de avaliação do progresso da IA ​​na empresa.

O público e as autoridades estão preocupados com o facto de o desenvolvimento de tecnologias de IA ser controlado por um pequeno número de empresas e de o cidadão comum não ter influência sobre elas. Se as afirmações feitas por inúmeras fontes anônimas sobre a segurança da OpenAI forem verdadeiras, então o controle dessa empresa sobre a tecnologia que muda vidas é de fato um tanto alarmante.

avalanche

Postagens recentes

ASUS lançou o console portátil ROG Ally X com maior bateria e desempenho

A ASUS lançou as vendas do novo console de jogos portátil ROG Ally X, que…

9 minutos atrás

Heihachi Mishima “definitivamente” morto retornará em Tekken 8 após cair em um vulcão

O renascimento de personagens mortos é algo comum em jogos de luta, e quem, exceto…

29 minutos atrás

Encontrou uma maneira barata de produzir telas OLED transparentes usando nanopartículas

Cientistas coreanos desenvolveram a tecnologia NTS para a produção de telas OLED transparentes de grande…

2 horas atrás

O blogueiro mostrou quais truques Larian usou para salvar os jogadores de Baldur’s Gate 3 de sua própria estupidez

O Blogger Proxy Gate Tactician com 1400 horas em Baldur's Gate 3 decidiu verificar quais…

3 horas atrás