O ChatGPT introduz o ‘Modo de Bloqueio’ e a sinalização de alto risco para proteger dados sensíveis.

A OpenAI introduziu novos recursos de segurança com o objetivo de impedir que invasores abusem de produtos baseados em IA. Entre eles, estão o “Modo de Bloqueio” como uma configuração adicional no ChatGPT e os indicadores de “Risco Elevado” no ChatGPT, ChatGPT Atlas e Codex.

Fonte da imagem: openai.com

Os novos recursos se baseiam nas proteções existentes implementadas nos níveis de modelo, produto e sistema, incluindo sandboxing, proteção contra vazamento de dados de URL, ferramentas de monitoramento e aplicação de políticas e controles corporativos, como diferenciação de privilégios e registros de auditoria. O “Modo de Bloqueio” do ChatGPT permite desativar ferramentas e recursos específicos do chatbot que um possível invasor poderia explorar para vazar dados confidenciais de conversas de usuários ou aplicativos conectados, por exemplo, injetando solicitações adicionais. Por exemplo, ao navegar no Modo de Bloqueio, o conteúdo em cache é restrito, garantindo que as solicitações de rede em tempo real permaneçam dentro da rede controlada pela OpenAI.

O Modo de Bloqueio está disponível para usuários com contas corporativas, de saúde e educacionais. Ele impõe restrições adicionais para usuários comuns, além daquelas configuradas pelo administrador. Configurações adicionais também estão disponíveis, permitindo que você escolha quais aplicativos e ações específicos dentro desses aplicativos funcionarão no Modo de Bloqueio. A empresa também oferece um conjunto de ferramentas, a Plataforma de Registros de API de Conformidade, que permite o registro de dados sobre o uso do aplicativo, dados compartilhados e fontes externas conectadas.

A OpenAI também observou que os serviços de IA podem representar ameaças adicionais aos usuários. Para tornar isso mais claro e consistente, a empresa decidiu introduzirPadronização da rotulagem para funcionalidades existentes. As funcionalidades correspondentes do ChatGPT, ChatGPT Atlas e Codex agora compartilharão uma única etiqueta de “Alto Risco”. Por exemplo, ao trabalhar com o assistente de programação do Codex, essa etiqueta será aplicada à funcionalidade de acesso a recursos externos, originalmente destinada, por exemplo, a buscas em documentação. A etiqueta será acompanhada de explicações sobre as mudanças e ameaças que podem surgir, e quando conceder tal acesso é apropriado.

admin

Postagens recentes

Agentes de IA são vulneráveis ​​a ataques a roteadores.

Uma vulnerabilidade crítica e subestimada no ecossistema de agentes de IA são os roteadores —…

31 minutos atrás

A missão lunar Artemis II chegou ao fim com o retorno da espaçonave Orion, que transportava astronautas, à Terra.

A espaçonave Orion da NASA, que orbitou a Lua como parte da missão Artemis II,…

5 horas atrás

A Tesla lançou uma ofensiva contra dispositivos “falsificados” que permitem aos usuários ativar o Autopilot em países onde ele não é oferecido oficialmente.

Historicamente, a Tesla desenvolveu e aprimorou suas tecnologias proprietárias de assistência ativa ao motorista usando…

5 horas atrás

Um suspeito da tentativa de incêndio criminoso na casa do CEO da OpenAI, Sam Altman, foi preso nos EUA.

A exposição pública dos executivos de grandes empresas de tecnologia os torna tão vulneráveis ​​quanto…

6 horas atrás

A Meta não conseguiu se defender de mais um processo judicial relacionado ao vício de adolescentes em redes sociais.

Hoje, a Suprema Corte de Massachusetts decidiu que a plataforma de mídia social Instagram foi…

6 horas atrás