A OpenAI é considerada líder global na corrida para criar uma inteligência artificial forte que seja tão poderosa quanto os humanos. Entretanto, os funcionários da empresa aparecem regularmente na imprensa e em podcasts e expressam fortes preocupações sobre a segurança dos sistemas que desenvolve.

Fonte da imagem: Growtika/unsplash.com

Recentemente, a OpenAI lançou um produto cujos testes de segurança foram realizados às pressas, mas a empresa comemorou o lançamento do próprio produto em grande escala. “Eles planejaram a festa de lançamento antes de saberem se o produto era seguro. Basicamente falhamos no processo”, disse uma fonte anônima ao Washington Post. Esta não é a primeira mensagem deste tipo – anteriormente, antigos e atuais funcionários da OpenAI assinaram uma carta aberta pedindo melhorias nas práticas de segurança e transparência da empresa logo após a saída dos responsáveis ​​por estas questões, Jan Leike e Ilya Sutskever.

No papel, porém, tudo parece completamente diferente. Uma das disposições do estatuto da OpenAI afirma que se outro jogador conseguir uma IA forte, a empresa ajudará a garantir a segurança, em vez de competir com um concorrente. E a natureza fechada dos modelos de IA da OpenAI também se deve a questões de segurança. “Estamos orgulhosos do nosso histórico de fornecimento dos sistemas de IA mais eficazes e seguros e acreditamos na nossa abordagem científica para resolver ameaças. Um debate robusto é fundamental dada a importância desta tecnologia, e continuaremos a nos envolver com governos, sociedade civil e outras comunidades ao redor do mundo em nome de nossa missão”, disse a porta-voz da OpenAI, Taya Christianson, ao The Verge.

A empresa “não economizou” no lado da segurança ao lançar seu modelo GPT-4o de última geração, garantiu Lindsey Held, outro porta-voz da OpenAI, ao Washington Post. Mas uma fonte anônima disse que o período de exame deste produto foi reduzido para apenas uma semana. Anteriormente, a empresa anunciou o lançamento de um projeto conjunto com o Laboratório Nacional de Los Alamos para identificar riscos potenciais do uso de IA em trabalhos científicos. Também ficou conhecido a existência de um sistema de avaliação do progresso da IA ​​na empresa.

O público e as autoridades estão preocupados com o facto de o desenvolvimento de tecnologias de IA ser controlado por um pequeno número de empresas e de o cidadão comum não ter influência sobre elas. Se as afirmações feitas por inúmeras fontes anônimas sobre a segurança da OpenAI forem verdadeiras, então o controle dessa empresa sobre a tecnologia que muda vidas é de fato um tanto alarmante.

avalanche

Postagens recentes

A NVIDIA gastará US$ 1,5 bilhão para alugar seus próprios aceleradores de IA da Lambda, na qual investiu

A NVIDIA, fornecedora e investidora da Lambda, tornou-se sua maior cliente. De acordo com o…

56 minutos atrás

A NVIDIA gastará US$ 1,5 bilhão para alugar seus próprios aceleradores de IA da Lambda, na qual investiu

A NVIDIA, fornecedora e investidora da Lambda, tornou-se sua maior cliente. De acordo com o…

56 minutos atrás

OpenAI reorganiza equipe de comportamento de IA após críticas ao GPT-5

A OpenAI reorganizou sua equipe de Comportamento de Modelos, responsável pelas características comportamentais dos modelos…

2 horas atrás

Novo artigo: Pastoreio – uma montanha de emoções. Resenha

O estúdio que nos proporcionou os incrivelmente atmosféricos FAR: Lone Sails e FAR: Changing Tides…

2 horas atrás

Tesla agora diz que seu piloto automático está “quase cheio”

Foi necessária uma decisão judicial para forçar a Tesla a indicar, em suas referências públicas…

3 horas atrás