Funcionários da Apple expressaram preocupações sobre o desempenho da versão atualizada da assistente de voz Siri nas primeiras versões do sistema operacional iOS 26.4. Apesar do atraso significativo e do tempo adicional para refinar a Siri, os testadores de software da empresa duvidam de sua prontidão para o lançamento previsto para o segundo trimestre de 2026.

Fonte da imagem: Apple

De acordo com o 9to5Mac, citando uma reportagem do Power On de Mark Gurman, da Bloomberg, se a Siri atualizada não for lançada em seis meses, é possível que haja novas saídas de altos funcionários da equipe de IA da Apple. “Funcionários que testam o iOS 26.4 estão preocupados com o desempenho da assistente de voz na próxima versão do sistema operacional, que deverá integrar a nova Siri”, escreve Gurman.

Na WWDC24, a empresa revelou oficialmente a plataforma Apple Intelligence como um conjunto de recursos de IA executados localmente em dispositivos Apple. Embora alguns dos recursos anunciados, como a ferramenta de Limpeza no app Fotos, emojis generativos (Genmoji) e a integração do ChatGPT com a Siri, tenham sido implementados durante o ciclo de lançamento do iOS 18, uma atualização importante para a assistente de voz em si nunca se concretizou. A Apple prometeu inicialmente três recursos principais para a nova Siri: compreensão contextual da conversa do usuário, análise do conteúdo da tela e a capacidade de executar ações dentro dos apps. No entanto, esses recursos não foram incluídos nem mesmo nas versões beta do iOS 18.4 ou iOS 18.5, o que levou a um atraso de um ano no lançamento oficial devido à falha em atender aos padrões internos de qualidade.

Mais tarde, em uma entrevista após a conferência WWDC em 2025, o chefe de engenharia de software da Apple, Craig Federighi, explicou que a equipe precisava de tempo para redesenhar a Siri, e o lançamento era esperado para 2026.De acordo com as informações disponíveis, duas equipes da empresa estão se preparando para o lançamento, desenvolvendo abordagens diferentes para a implementação do novo assistente: uma é baseada emmodelos locais diretamente no dispositivo, o outro é baseado no uso do modelo Google Gemini por meio do sistema de inteligência em nuvem Private Cloud Compute para processamento complexo de dados de dispositivos de usuários.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *