A Apple nunca mencionou inteligência artificial ontem, mas apresentou muitos produtos com ela

Falando sobre produtos icônicos como Apple Silicon Mac Pro e Apple Vision Pro em seu principal evento WWDC 2023, os palestrantes da empresa nunca mencionaram diretamente a “inteligência artificial”, como fizeram a Microsoft e o Google, mas a substituíram por outros conceitos: “aprendizado de máquina” e ” transformador”.

Fonte da imagem: apple.com

“Ao falar sobre os novos algoritmos de autocorreção e entrada de voz no iOS 17, o vice-presidente sênior de engenharia de software da Apple, Craig Federighi, disse que a autocorreção é baseada no aprendizado de máquina e em um modelo de linguagem – um transformador, graças ao qual o sistema funciona com mais precisão do que quando O modelo dispara a cada toque de tecla, possibilitado pelos poderosos processadores da Apple no coração do iPhone.”

Assim, ele evitou o termo “inteligência artificial”, mas confirmou que o produto usa um modelo de linguagem com uma arquitetura “transformadora” otimizada para processamento de linguagem natural. As redes neurais no centro do gerador de imagens DALL-E e do bot de bate-papo ChatGPT funcionam na mesma arquitetura. Isso significa que a correção automática no iOS 17 funciona no nível da frase, sugerindo a conclusão de palavras ou frases inteiras. Além disso, ela também aprende, ajustando-se às peculiaridades da fala do dono do telefone. Tudo isso é possível graças ao Neural Engine, que estreou nos processadores Apple A11 em 2017, que otimiza o desempenho de aplicativos de aprendizado de máquina.

O termo “aprendizado de máquina” foi mencionado várias vezes: ao descrever os novos recursos da tela de bloqueio do iPad, a própria função Live Photo sintetiza quadros adicionais; ao descrever o recurso de digitalização de PDF no iPadOS para substituição automática subsequente em formulários; em reportagem sobre o recurso AirPods Adaptive Audio, que revela as preferências musicais do usuário; na descrição do novo widget Smart Stack para Apple Watch.

«Machine Learning” é usado no novo aplicativo Journal – agora você pode manter um diário pessoal interativo em seu iPhone. O próprio aplicativo recomenda qual conteúdo marcar, com base nos dados armazenados no telefone. Por fim, o “aprendizado de máquina” é usado para criar avatares de usuário em 3D com imagens de olhos exibidas na tela frontal do fone de ouvido Apple Vision Pro. E para compactar esses avatares, é usado um codec baseado em um algoritmo de rede neural.

Seguiu-se menção indireta às tecnologias de IA ao descrever o novo chip Apple M2 Ultra, que possui até 32 núcleos de CPU e 76 núcleos de GPU, além de 32 núcleos do Neural Engine – o chip fornece até 31,6 trilhões de operações por segundo e oferece um aumento de desempenho de 40% em relação ao M1 Ultra. A Apple afirmou explicitamente que esses recursos podem ser usados ​​para treinar “grandes modelos de transformadores” com 192 GB de RAM, o que as GPUs discretas de hoje não podem ter e, por isso, cedem a algumas tarefas.

Isso significa que o treinamento de IA está disponível para usuários comuns, e não apenas para o Mac Pro topo de linha a partir de US$ 6.999, mas também para o mais modesto Mac Studio a partir de US$ 1.999. Resta aguardar análises comparativas com aceleradores como o NVIDIA H100.

avalanche

Postagens recentes

PCs para ricos novamente: o preço da DDR5 na Europa aumentou 4,4 vezes em seis meses, enquanto os preços da DDR4 e da DDR3 também estão disparando.

Mesmo aqueles que não tinham um interesse particular no mercado de componentes de computador começaram…

16 minutos atrás

Uma fonte interna confirmou qual remake de Resident Evil será anunciado em 2026 – não é Resident Evil 5.

O insider AestheticGamer (também conhecido como Dusk Golem) comentou em seu microblog sobre os rumores…

16 minutos atrás

A Apple praticamente assumiu a liderança da Huawei no mercado chinês de smartphones.

No quarto trimestre do ano passado, como observaram os analistas da Counterpoint Research, as vendas…

1 hora atrás