Falando sobre produtos icônicos como Apple Silicon Mac Pro e Apple Vision Pro em seu principal evento WWDC 2023, os palestrantes da empresa nunca mencionaram diretamente a “inteligência artificial”, como fizeram a Microsoft e o Google, mas a substituíram por outros conceitos: “aprendizado de máquina” e ” transformador”.

Fonte da imagem: apple.com

“Ao falar sobre os novos algoritmos de autocorreção e entrada de voz no iOS 17, o vice-presidente sênior de engenharia de software da Apple, Craig Federighi, disse que a autocorreção é baseada no aprendizado de máquina e em um modelo de linguagem – um transformador, graças ao qual o sistema funciona com mais precisão do que quando O modelo dispara a cada toque de tecla, possibilitado pelos poderosos processadores da Apple no coração do iPhone.”

Assim, ele evitou o termo “inteligência artificial”, mas confirmou que o produto usa um modelo de linguagem com uma arquitetura “transformadora” otimizada para processamento de linguagem natural. As redes neurais no centro do gerador de imagens DALL-E e do bot de bate-papo ChatGPT funcionam na mesma arquitetura. Isso significa que a correção automática no iOS 17 funciona no nível da frase, sugerindo a conclusão de palavras ou frases inteiras. Além disso, ela também aprende, ajustando-se às peculiaridades da fala do dono do telefone. Tudo isso é possível graças ao Neural Engine, que estreou nos processadores Apple A11 em 2017, que otimiza o desempenho de aplicativos de aprendizado de máquina.

O termo “aprendizado de máquina” foi mencionado várias vezes: ao descrever os novos recursos da tela de bloqueio do iPad, a própria função Live Photo sintetiza quadros adicionais; ao descrever o recurso de digitalização de PDF no iPadOS para substituição automática subsequente em formulários; em reportagem sobre o recurso AirPods Adaptive Audio, que revela as preferências musicais do usuário; na descrição do novo widget Smart Stack para Apple Watch.

«Machine Learning” é usado no novo aplicativo Journal – agora você pode manter um diário pessoal interativo em seu iPhone. O próprio aplicativo recomenda qual conteúdo marcar, com base nos dados armazenados no telefone. Por fim, o “aprendizado de máquina” é usado para criar avatares de usuário em 3D com imagens de olhos exibidas na tela frontal do fone de ouvido Apple Vision Pro. E para compactar esses avatares, é usado um codec baseado em um algoritmo de rede neural.

Seguiu-se menção indireta às tecnologias de IA ao descrever o novo chip Apple M2 Ultra, que possui até 32 núcleos de CPU e 76 núcleos de GPU, além de 32 núcleos do Neural Engine – o chip fornece até 31,6 trilhões de operações por segundo e oferece um aumento de desempenho de 40% em relação ao M1 Ultra. A Apple afirmou explicitamente que esses recursos podem ser usados ​​para treinar “grandes modelos de transformadores” com 192 GB de RAM, o que as GPUs discretas de hoje não podem ter e, por isso, cedem a algumas tarefas.

Isso significa que o treinamento de IA está disponível para usuários comuns, e não apenas para o Mac Pro topo de linha a partir de US$ 6.999, mas também para o mais modesto Mac Studio a partir de US$ 1.999. Resta aguardar análises comparativas com aceleradores como o NVIDIA H100.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *