A OpenAI é considerada líder global na corrida para criar uma inteligência artificial forte que seja tão poderosa quanto os humanos. Entretanto, os funcionários da empresa aparecem regularmente na imprensa e em podcasts e expressam fortes preocupações sobre a segurança dos sistemas que desenvolve.

Fonte da imagem: Growtika/unsplash.com

Recentemente, a OpenAI lançou um produto cujos testes de segurança foram realizados às pressas, mas a empresa comemorou o lançamento do próprio produto em grande escala. “Eles planejaram a festa de lançamento antes de saberem se o produto era seguro. Basicamente falhamos no processo”, disse uma fonte anônima ao Washington Post. Esta não é a primeira mensagem deste tipo – anteriormente, antigos e atuais funcionários da OpenAI assinaram uma carta aberta pedindo melhorias nas práticas de segurança e transparência da empresa logo após a saída dos responsáveis ​​por estas questões, Jan Leike e Ilya Sutskever.

No papel, porém, tudo parece completamente diferente. Uma das disposições do estatuto da OpenAI afirma que se outro jogador conseguir uma IA forte, a empresa ajudará a garantir a segurança, em vez de competir com um concorrente. E a natureza fechada dos modelos de IA da OpenAI também se deve a questões de segurança. “Estamos orgulhosos do nosso histórico de fornecimento dos sistemas de IA mais eficazes e seguros e acreditamos na nossa abordagem científica para resolver ameaças. Um debate robusto é fundamental dada a importância desta tecnologia, e continuaremos a nos envolver com governos, sociedade civil e outras comunidades ao redor do mundo em nome de nossa missão”, disse a porta-voz da OpenAI, Taya Christianson, ao The Verge.

A empresa “não economizou” no lado da segurança ao lançar seu modelo GPT-4o de última geração, garantiu Lindsey Held, outro porta-voz da OpenAI, ao Washington Post. Mas uma fonte anônima disse que o período de exame deste produto foi reduzido para apenas uma semana. Anteriormente, a empresa anunciou o lançamento de um projeto conjunto com o Laboratório Nacional de Los Alamos para identificar riscos potenciais do uso de IA em trabalhos científicos. Também ficou conhecido a existência de um sistema de avaliação do progresso da IA ​​na empresa.

O público e as autoridades estão preocupados com o facto de o desenvolvimento de tecnologias de IA ser controlado por um pequeno número de empresas e de o cidadão comum não ter influência sobre elas. Se as afirmações feitas por inúmeras fontes anônimas sobre a segurança da OpenAI forem verdadeiras, então o controle dessa empresa sobre a tecnologia que muda vidas é de fato um tanto alarmante.

avalanche

Postagens recentes

A Microsoft substitui seu chefe de segurança após uma repreensão das autoridades americanas.

A Microsoft nomeou Hayete Gallot como a nova chefe de sua divisão de segurança. Ela…

3 horas atrás

Novo Capítulo, Nome Antigo: Blizzard Anuncia Reboot de Overwatch 2

Conforme prometido, em 4 de fevereiro, durante a transmissão do Overwatch Spotlight, os desenvolvedores da…

4 horas atrás

Nos Estados Unidos, foi criada uma impressora 3D subaquática capaz de imprimir concreto diretamente no fundo do mar.

Pesquisadores da Universidade Cornell desenvolveram uma tecnologia para impressão 3D de estruturas de concreto diretamente…

6 horas atrás