A OpenAI é considerada líder global na corrida para criar uma inteligência artificial forte que seja tão poderosa quanto os humanos. Entretanto, os funcionários da empresa aparecem regularmente na imprensa e em podcasts e expressam fortes preocupações sobre a segurança dos sistemas que desenvolve.

Fonte da imagem: Growtika/unsplash.com

Recentemente, a OpenAI lançou um produto cujos testes de segurança foram realizados às pressas, mas a empresa comemorou o lançamento do próprio produto em grande escala. “Eles planejaram a festa de lançamento antes de saberem se o produto era seguro. Basicamente falhamos no processo”, disse uma fonte anônima ao Washington Post. Esta não é a primeira mensagem deste tipo – anteriormente, antigos e atuais funcionários da OpenAI assinaram uma carta aberta pedindo melhorias nas práticas de segurança e transparência da empresa logo após a saída dos responsáveis ​​por estas questões, Jan Leike e Ilya Sutskever.

No papel, porém, tudo parece completamente diferente. Uma das disposições do estatuto da OpenAI afirma que se outro jogador conseguir uma IA forte, a empresa ajudará a garantir a segurança, em vez de competir com um concorrente. E a natureza fechada dos modelos de IA da OpenAI também se deve a questões de segurança. “Estamos orgulhosos do nosso histórico de fornecimento dos sistemas de IA mais eficazes e seguros e acreditamos na nossa abordagem científica para resolver ameaças. Um debate robusto é fundamental dada a importância desta tecnologia, e continuaremos a nos envolver com governos, sociedade civil e outras comunidades ao redor do mundo em nome de nossa missão”, disse a porta-voz da OpenAI, Taya Christianson, ao The Verge.

A empresa “não economizou” no lado da segurança ao lançar seu modelo GPT-4o de última geração, garantiu Lindsey Held, outro porta-voz da OpenAI, ao Washington Post. Mas uma fonte anônima disse que o período de exame deste produto foi reduzido para apenas uma semana. Anteriormente, a empresa anunciou o lançamento de um projeto conjunto com o Laboratório Nacional de Los Alamos para identificar riscos potenciais do uso de IA em trabalhos científicos. Também ficou conhecido a existência de um sistema de avaliação do progresso da IA ​​na empresa.

O público e as autoridades estão preocupados com o facto de o desenvolvimento de tecnologias de IA ser controlado por um pequeno número de empresas e de o cidadão comum não ter influência sobre elas. Se as afirmações feitas por inúmeras fontes anônimas sobre a segurança da OpenAI forem verdadeiras, então o controle dessa empresa sobre a tecnologia que muda vidas é de fato um tanto alarmante.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *