A OpenAI é considerada líder global na corrida para criar uma inteligência artificial forte que seja tão poderosa quanto os humanos. Entretanto, os funcionários da empresa aparecem regularmente na imprensa e em podcasts e expressam fortes preocupações sobre a segurança dos sistemas que desenvolve.

Fonte da imagem: Growtika/unsplash.com

Recentemente, a OpenAI lançou um produto cujos testes de segurança foram realizados às pressas, mas a empresa comemorou o lançamento do próprio produto em grande escala. “Eles planejaram a festa de lançamento antes de saberem se o produto era seguro. Basicamente falhamos no processo”, disse uma fonte anônima ao Washington Post. Esta não é a primeira mensagem deste tipo – anteriormente, antigos e atuais funcionários da OpenAI assinaram uma carta aberta pedindo melhorias nas práticas de segurança e transparência da empresa logo após a saída dos responsáveis ​​por estas questões, Jan Leike e Ilya Sutskever.

No papel, porém, tudo parece completamente diferente. Uma das disposições do estatuto da OpenAI afirma que se outro jogador conseguir uma IA forte, a empresa ajudará a garantir a segurança, em vez de competir com um concorrente. E a natureza fechada dos modelos de IA da OpenAI também se deve a questões de segurança. “Estamos orgulhosos do nosso histórico de fornecimento dos sistemas de IA mais eficazes e seguros e acreditamos na nossa abordagem científica para resolver ameaças. Um debate robusto é fundamental dada a importância desta tecnologia, e continuaremos a nos envolver com governos, sociedade civil e outras comunidades ao redor do mundo em nome de nossa missão”, disse a porta-voz da OpenAI, Taya Christianson, ao The Verge.

A empresa “não economizou” no lado da segurança ao lançar seu modelo GPT-4o de última geração, garantiu Lindsey Held, outro porta-voz da OpenAI, ao Washington Post. Mas uma fonte anônima disse que o período de exame deste produto foi reduzido para apenas uma semana. Anteriormente, a empresa anunciou o lançamento de um projeto conjunto com o Laboratório Nacional de Los Alamos para identificar riscos potenciais do uso de IA em trabalhos científicos. Também ficou conhecido a existência de um sistema de avaliação do progresso da IA ​​na empresa.

O público e as autoridades estão preocupados com o facto de o desenvolvimento de tecnologias de IA ser controlado por um pequeno número de empresas e de o cidadão comum não ter influência sobre elas. Se as afirmações feitas por inúmeras fontes anônimas sobre a segurança da OpenAI forem verdadeiras, então o controle dessa empresa sobre a tecnologia que muda vidas é de fato um tanto alarmante.

avalanche

Postagens recentes

Informante: Fable será lançado simultaneamente para PC, Xbox e PS5, e a versão de Forza Horizon 6 para PC “simplesmente não está pronta”.

O ambicioso RPG de ação e fantasia Fable (da série Forza Horizon), do estúdio britânico…

1 hora atrás

O boom da IA ​​teve pouco impacto no PIB dos EUA até agora, mas a dívida massiva pode se tornar um problema.

Em um estudo recente, analistas do BIS tentaram explicar que, no estágio atual de desenvolvimento…

2 horas atrás

O número máximo de jogadores online simultâneos no Steam ultrapassou 42 milhões pela primeira vez na história.

Apenas uma semana após sua conquista anterior, o Steam, serviço de distribuição digital da empresa…

3 horas atrás

O Google introduziu um protocolo de pagamento universal (UCP, na sigla em inglês) para organizar compras por meio de chatbots.

Esta semana, o Google apresentou um novo padrão aberto, chamado Universal Commerce Protocol (UCP), projetado…

3 horas atrás