A Apple garantiu aos clientes que seus dados transferidos para a nuvem por meio do Apple Intelligence “nunca serão armazenados ou disponibilizados para a Apple” e o código aberto do servidor permite que os especialistas “testem essa promessa de privacidade”. A empresa afirma que o sistema Apple Intelligence AI que integra em seus produtos usará “computação em nuvem privada em servidores personalizados construídos com processadores Apple”.
Como a maioria dos grandes modelos de linguagem são executados em farms remotos de servidores em nuvem, os usuários relutam em compartilhar dados pessoais com empresas de IA. Em sua palestra na WWDC hoje, a Apple enfatizou que o novo Apple Intelligence que está integrando em seus produtos usará a nova “computação em nuvem privada” para fornecer segurança transparente e verificável para quaisquer dados processados em seus servidores em nuvem.
«Você não terá que entregar todos os detalhes da sua vida para serem armazenados e analisados na nuvem de alguém pela IA”, disse o vice-presidente sênior de engenharia de software da Apple, Craig Federighi. Ele disse que muitos dos modelos generativos de IA da Apple podem ser executados inteiramente localmente em dispositivos baseados em chips da série A17+ ou M, eliminando o risco de envio de dados pessoais para um servidor remoto.
Se um modelo de nuvem maior for necessário para atender à solicitação de um usuário, disse Federighi, ele “será executado em servidores que construímos especificamente usando processadores Apple”, permitindo as ferramentas de segurança incorporadas à linguagem de programação Swift. Federighi diz que a Apple Intelligence “envia aos servidores apenas os dados necessários para concluir sua tarefa”, em vez de fornecer acesso total a todas as informações contextuais de um dispositivo.
Federighi enfatizou que mesmo esse conjunto de dados reduzido não será armazenado para acesso futuro ou usado para treinar ainda mais os modelos de back-end da Apple. É igualmente importante que o código do servidor usado pela Apple seja aberto e que especialistas independentes possam verificar a confidencialidade dos dados do usuário. Todo o sistema é protegido por criptografia ponta a ponta, portanto os dispositivos Apple “se recusarão a se comunicar com o servidor, a menos que seu software seja registrado publicamente para verificação”.
Embora a palestra de Federighi forneça poucos detalhes técnicos, o foco na privacidade mostra que a Apple está, pelo menos retoricamente, priorizando as preocupações de segurança no espaço generativo de IA. A Apple chama sua política de privacidade de “um padrão inteiramente novo para privacidade e inteligência artificial”. Resta aguardar a conclusão de especialistas independentes em segurança.
A holding britânica Arm anunciou a intenção de buscar um novo julgamento da ação contra…
A OpenAI está atrasada no desenvolvimento da versão mais recente de seu principal modelo de…
A empresa japonesa OKI Circuit Technology, que produz placas de circuito impresso há mais de…
Até o final de 2024, as remessas globais de headsets de realidade virtual e mista…
O mensageiro WhatsApp anunciou uma vitória legal sobre o desenvolvedor do spyware Pegasus, representado pela…
Recentemente, a NASA revisou os planos para criar uma estação espacial privada, cujo contrato de…