Funcionários da Apple expressaram preocupações sobre o desempenho da versão atualizada da assistente de voz Siri nas primeiras versões do sistema operacional iOS 26.4. Apesar do atraso significativo e do tempo adicional para refinar a Siri, os testadores de software da empresa duvidam de sua prontidão para o lançamento previsto para o segundo trimestre de 2026.

Fonte da imagem: Apple
De acordo com o 9to5Mac, citando uma reportagem do Power On de Mark Gurman, da Bloomberg, se a Siri atualizada não for lançada em seis meses, é possível que haja novas saídas de altos funcionários da equipe de IA da Apple. “Funcionários que testam o iOS 26.4 estão preocupados com o desempenho da assistente de voz na próxima versão do sistema operacional, que deverá integrar a nova Siri”, escreve Gurman.
Na WWDC24, a empresa revelou oficialmente a plataforma Apple Intelligence como um conjunto de recursos de IA executados localmente em dispositivos Apple. Embora alguns dos recursos anunciados, como a ferramenta de Limpeza no app Fotos, emojis generativos (Genmoji) e a integração do ChatGPT com a Siri, tenham sido implementados durante o ciclo de lançamento do iOS 18, uma atualização importante para a assistente de voz em si nunca se concretizou. A Apple prometeu inicialmente três recursos principais para a nova Siri: compreensão contextual da conversa do usuário, análise do conteúdo da tela e a capacidade de executar ações dentro dos apps. No entanto, esses recursos não foram incluídos nem mesmo nas versões beta do iOS 18.4 ou iOS 18.5, o que levou a um atraso de um ano no lançamento oficial devido à falha em atender aos padrões internos de qualidade.
Mais tarde, em uma entrevista após a conferência WWDC em 2025, o chefe de engenharia de software da Apple, Craig Federighi, explicou que a equipe precisava de tempo para redesenhar a Siri, e o lançamento era esperado para 2026.De acordo com as informações disponíveis, duas equipes da empresa estão se preparando para o lançamento, desenvolvendo abordagens diferentes para a implementação do novo assistente: uma é baseada emmodelos locais diretamente no dispositivo, o outro é baseado no uso do modelo Google Gemini por meio do sistema de inteligência em nuvem Private Cloud Compute para processamento complexo de dados de dispositivos de usuários.
