A OpenAI reforçou suas medidas de proteção contra espionagem corporativa, segundo fontes online, depois que a startup chinesa DeepSeek lançou um modelo de IA muito mais barato, porém competitivo, no início deste ano. A OpenAI acusou a startup de copiar seu modelo de linguagem usando técnicas de “destilação”, que comprimem um modelo grande em um menor.

Fonte da imagem: Oleksandr Chumak/Unsplash

O fortalecimento do sistema de segurança inclui a adoção de uma política de “proteção da informação” que limita o acesso do pessoal a dados confidenciais e novos produtos. Por exemplo, durante o desenvolvimento do algoritmo o1, apenas funcionários de confiança envolvidos no projeto tinham permissão para discutir questões relacionadas ao trabalho nos escritórios da empresa.

Ao mesmo tempo, a OpenAI começou a isolar tecnologias proprietárias em sistemas computacionais autônomos. O controle de acesso biométrico às instalações do escritório está sendo introduzido, bem como restrições rígidas à conexão com os sistemas internos de TI da empresa a partir de fora. Para aumentar a eficácia das medidas tomadas, a OpenAI expandiu a equipe do departamento de segurança cibernética.

Segundo a fonte, as mudanças na política de segurança da OpenAI refletem preocupações com concorrentes estrangeiros tentando roubar a propriedade intelectual da empresa. Dada a concorrência cada vez mais intensa no mercado de IA dos EUA, é possível que os aprimoramentos de segurança também sejam uma tentativa da empresa de lidar com preocupações internas. Os executivos da OpenAI ainda não se pronunciaram sobre o assunto.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *