O sucesso dos processadores RISC I, II e MIPS, discutido no artigo anterior desta minissérie, não foi comercial, mas acadêmico. Isso foi demonstrado por sua superioridade objetiva — maior velocidade de resolução de problemas e menor número de transistores necessários em um chip — em competições de laboratório com os computadores CISC então difundidos. Lembrem-se, esses eram projetos universitários; demonstrações práticas das capacidades de conjuntos de instruções reduzidos, principalmente instruções. Ao mesmo tempo, eles se tornaram um alerta preocupante para empresas focadas no desenvolvimento de microprocessadores: afinal, ambas as arquiteturas RISC — embora sob a orientação de pesquisadores de destaque, e com financiamento (nada excessivamente generoso, diga-se de passagem) do Departamento de Defesa — foram criadas em apenas um ano por grupos relativamente pequenos de alunos de graduação e pós-graduação. A relação custo-benefício impressionou tanto a comunidade empresarial que, no início da década de 1980, a arquitetura RISC experimentou uma verdadeira “explosão cambriana”. Um após o outro, os seguintes processadores foram desenvolvidos:
Foto\\x86alt3-01 O processador Intel i860 RISC, fabricado com um processo de 1 mícron, combinava uma unidade lógica aritmética de 32 bits com uma unidade de ponto flutuante de 64 bits e também incluía um processador gráfico integrado de 64 bits capaz de lidar com imagens 3D: este chip, embora nunca tenha tido sucesso comercial, estava claramente à frente de seu tempo (fonte: Wikimedia Commons)
⇡#Reduza o escopo!
Ao mesmo tempo, o ecossistema CISC estava, pode-se dizer, encolhendo: não em termos de sua participação no mercado de TI (essa era precisamente a participação de mercado).O campo cresceu rapidamente, mas em termos do número de projetos concorrentes nessa área. Enquanto na década de 1970 concorrentes como o Intel 8086, o Motorola 68000 e o National Semiconductor 32016 competiam entre si, nenhum novo participante se juntou a eles na década de 1980, e os rivais da Intel (sem contar a AMD, que demonstrou notável resiliência) gradualmente começaram a desaparecer do cenário. Isso é compreensível do ponto de vista econômico: criar mais um conjunto de instruções CISC exclusivo (e não pode ser uma repetição ou desenvolvimento direto do que já foi desenvolvido, visto que os existentes são protegidos por direitos autorais) e projetar um processador específico para ele é uma empreitada cara, especialmente considerando a natureza fechada das arquiteturas existentes desse tipo. E como iniciar um novo chip RISC é muito menos arriscado em termos de custos iniciais, a diversidade dessas plataformas provou ser muito mais significativa. Outro problema é que cada uma dessas arquiteturas encontrou um mercado muito limitado e, como resultado, todo o ecossistema RISC se desenvolveu em um ritmo significativamente mais lento do que o x86 — devido à simples falta de capital de giro.
O fato é que, precisamente na década de 1980, os usuários em massa com poder aquisitivo (principalmente organizações comerciais e governamentais; o mercado de PCs voltado para o consumidor era muito mais restrito em termos monetários) deixaram de enxergar os computadores como dispositivos exóticos, quase mágicos, para realizar cálculos excessivamente complexos que as calculadoras mecânicas padrão da primeira metade do século XX não conseguiam processar — e começaram a vê-los como ferramentas de trabalho para resolver uma variedade de problemas cotidianos. Assim, o hardware (maisNo nível da Arquitetura do Conjunto de Instruções (ISA), os princípios subjacentes à operação de PCs eram de muito menos interesse para seus clientes finais, ou mais precisamente, para seus departamentos de TI: o que importava para eles era que o sistema computacional permitisse a operação estável de softwares específicos e já amplamente disponíveis. A era do desenvolvimento local e interno de softwares necessários para solucionar seus problemas, se não totalmente encerrada, estava claramente chegando ao fim. Grandes institutos de pesquisa, laboratórios importantes, bancos e empresas industriais podiam adquirir supercomputadores para suas necessidades específicas — possuindo recursos suficientes e uma equipe de especialistas em TI qualificados, capazes de traduzir os algoritmos necessários em linguagens de alto nível acessíveis aos computadores escolhidos. Esses clientes apreciavam o custo relativamente baixo do hardware RISC e a ampla gama de opções de programação para essa especificação inicialmente aberta (não uma arquitetura de processador específica com seu conjunto de instruções exclusivo; os desenvolvedores da ISA MIPS, por exemplo, só deixaram de cobrar taxas de licenciamento em 2018). A grande maioria dos compradores de computadores — tanto indivíduos, pequenas e médias empresas, quanto instituições educacionais e outras com recursos mais modestos — teve que escolher de acordo com suas necessidades, focando inicialmente em um software adequado aos seus propósitos e, em seguida, selecionando uma plataforma de hardware compatível. E, na maioria dos casos, mais cedo ou mais tarde, eles acabaram optando pela arquitetura x86.
Diagrama de blocos do primeiro processador ARM de 32 bits com um conjunto de instruções de apenas 25 instruções, cada uma executada em exatamente um ciclo (fonte: Wikimedia Commons)
A grande variedade de variantes de computadores RISC que entraram no mercado quase simultaneamente criou outro problema: o software desenvolvido para cada uma não era diretamente compatível com nenhuma outra, sem pelo menos modificações mínimas. Essa modificação, é claro, exigia trabalho manual — na época, não havia ferramentas automatizadas para transferir código executável entre plataformas nem hardware suficientemente potente para implementar virtualização. O software de código aberto aliviou parcialmente esse problema: um programa escrito em uma linguagem de alto nível simplesmente precisava ser compilado em qualquer plataforma para produzir uma versão executável específica para essa plataforma. No entanto, nem tudo correu bem também nesse aspecto: em primeiro lugar, não fazia sentido para os desenvolvedores desses softwares comerciais (processadores de texto, editores de planilhas, etc.) disponibilizarem o código-fonte desses produtos no mercado: quem em sã consciência os compraria? Em segundo lugar, para melhorar o desempenho, muitos pacotes de software foram escritos estritamente para uma plataforma específica, incluindo fragmentos em linguagem assembly específicos para ela, com tratamento de, novamente, em seu caso, registradores exclusivos, interrupções, etc.: aqui, uma simples recompilação francamente não teria sido suficiente. Resumindo, na década de 1980, havia uma extensa biblioteca de uma ampla variedade de softwares voltados para o ecossistema Wintel (processadores Intel x86 + sistema operacional Windows, para o qualA arquitetura RISC (que era o foco principal da maioria dos desenvolvedores de software) cresceu de forma constante, quase exponencial, em volume, enquanto a arquitetura RISC, inicialmente fragmentada, apesar de todas as suas inegáveis vantagens, definhava à margem do progresso geral do mercado global de TI. Chegou-se ao ponto de, no final da década de 1980, observadores bastante simpáticos à arquitetura RISC admitirem que ela não alcançaria sucesso comercial até que os líderes incontestáveis da indústria de processadores para PCs da época — Intel, Motorola e, em menor grau, AMD — investissem seriamente em sua promoção. Segundo a Computerworld, enquanto mais de 15 milhões de computadores compatíveis com IBM PC foram vendidos em todo o mundo em 1990, as vendas combinadas de várias versões de estações de trabalho baseadas em RISC — da Sun, IBM, HP, DEC e outras — não chegaram nem a 45.000 unidades. O placar estava, como se costuma dizer, no fundo da balança.
#Reagrupamento e Herança
Não é surpresa que, após terem se separado em grande parte, os fornecedores de computadores orientados à arquitetura RISC tenham começado a se consolidar gradualmente. A Sun começou a licenciar sua arquitetura SPARC em 1989, transferindo formalmente os direitos para a organização sem fins lucrativos SPARC International Inc., atraindo assim empresas de TI proeminentes da época, como Fujitsu, Texas Instruments, Atmel, Cypress e Matsushita, para o desenvolvimento dessa ISA. Em 1990, a Acorn, juntamente com a Apple Computer e a VLSI Technology, formou a Advanced RISC Machines Ltd. (ARM), que também buscou ativamente licenciados para promover ainda mais sua versão da arquitetura RISC.Na primavera de 1991, a MIPS, a DEC, a Compaq, a Microsoft e cerca de duas dúzias de outras empresas criaram o consórcio ACE (Advanced Computing Environment), que desenvolveu a especificação Advanced RISC Computing (ARC) com base nos próprios desenvolvimentos da MIPS.Naquele mesmo outono, a Apple (sem qualquer constrangimento por sua participação simultânea na ARM), a IBM e a Motorola formaram a aliança AIM — formada pelas iniciais de seus nomes — com o ambicioso objetivo de minar o ecossistema Wintel usando o processador Power RISC da IBM como base. A Motorola chegou a abandonar seu próprio projeto 88000 para alcançar esse objetivo. A Precision RISC Organization, idealizada pela HP (que incluía, entre outras, Hitachi, Mitsubishi, NEC e OKI), tornou-se um produto do suporte PA-RISC da HP em 1992. Aliás, naquele mesmo ano, a Silicon Graphics simplesmente adquiriu a MIPS — tanto que a primeira (para equipar suas promissoras estações de trabalho gráficas) precisou do segundo processador em desenvolvimento: o consórcio ACE logo entrou em colapso.
Ao analisar um processador Pentium CISC, neste caso o A80502-100 SX963 (P54C), encontramos elementos emprestados da arquitetura RISC (fonte: HARDWARECOP).
Ao mesmo tempo, na década de 1990, os principais desenvolvedores de processadores CISC começaram a prestar atenção às inovações que surgiam no espaço RISC. Assim, o processador MIPS R4000, lançado em 1991, tornou-se uma das primeiras CPUs de 64 bits comercialmente bem-sucedidas (caso contrário, por que a Silicon Graphics se interessaria por ele?), e em 1999, a AMD criou seu primeiro processador com uma adição de 64 bits ao conjunto de instruções x86 clássico de 32 bits. O processador RISC superescalar DEC Alpha 21064, capaz de executar até duas instruções por ciclo, surgiu em 1992. Em 1993, a Intel lançou o Pentium, o primeiro chip x86 com design superescalar. Em 1994, o processador PA-7100LC da HP, com a extensão MAX Instruction Set Extension, tornou-se a primeira CPU de uso geral do mundo a implementar a abordagem SIMD (Single Instruction, Multiple Data), especificamente para processamento multimídia. Em 1997, as instruções SIMD MMX foram adicionadas ao conjunto de instruções x86 da Intel.
Isso marcou o início da penetração dos princípios RISC no ecossistema CISC, que mencionamos no artigo anterior e culminou no paradigma EPIC (Explicitly Parallel Instruction Computing) (não confundir com a série de CPUs para servidores AMD EPYC), projetado para combinar os melhores aspectos do RISC e do CISC, eliminando suas deficiências.Infelizmente, a primeira família comercial de processadores EPIC, a Intel Itanium (arquitetura IA64), fracassou miseravelmente, ilustrando assim o ditado “o ótimo é inimigo do bom”: naquela época, o progresso havia sido rápido demais.A arquitetura x86. As tarefas que os chips EPIC deveriam executar nos níveis de hardware e ISA eram perfeitamente executadas pelas CPUs x86, cada vez mais rápidas, no nível de software mais alto. De fato, a rápida evolução do ecossistema x86 até o início da década de 2010 dificultou bastante o desenvolvimento de arquiteturas alternativas. Todas as otimizações que elas ofereciam eram anuladas pela capacidade de executar código não otimizado ainda mais rápido em sistemas CISC convencionais (mesmo com componentes RISC significativos em seu interior): se ao menos os sistemas de refrigeração tivessem capacidade suficiente para dissipar o calor gerado nesse processo!
Uma comparação impressionante entre as promessas de marketing para o crescimento das vendas de servidores com processadores Itanium (vários tons de azul-esverdeado, dependendo do ano de publicação da previsão) e os dados reais de vendas (linha laranja) (fonte: ExtremeTech).
Em meados da década de 2010 (após a MIPS, que havia se separado da Silicon Graphics, ser adquirida por diversas empresas e, posteriormente, abandonar o desenvolvimento de sua arquitetura homônima em favor do RISC-V), a ARM emergiu como um ator fundamental no ecossistema RISC em declínio. Nessa época, mudou seu nome para “Arm” para evitar confusão com a arquitetura de processador de mesmo nome. O segredo do sucesso desses desenvolvedores, que inicialmente não podiam ostentar capacidades comparáveis às da IBM, HP ou outras gigantes, reside em uma estratégia de desenvolvimento bem planejada e fundamentada. A administração da Arm, após realizar uma análise SWOT (Forças, Fraquezas, Oportunidades e Ameaças) clássica para uma empresa em dificuldades, decidiu focar em nichos de mercado nos quais seus concorrentes maiores e mais ricos simplesmente não estavam interessados: dispositivos embarcados e portáteis. Afinal, embora os processadores x86 fossem de fato bons em lidar com tarefas não otimizadas, isso ocorria à custa de computação excessiva — consumindo muita energia e (lembrando as peculiaridades da arquitetura CISC) exigindo um número excessivo de transistores para implementar seus diversos circuitos de computação. Eletrônica móvel e industrialIsso exige otimização nos níveis de hardware e ISA — a vantagem original das arquiteturas com conjuntos de instruções reduzidos. Além disso, a empresa decidiu não projetar processadores específicos internamente, criando apenas o projeto geral de engenharia e licenciando seus desenvolvimentos para parceiros. Em troca, exigiu royalties bastante modestos sobre cada núcleo ARM incluído no processador de cada dispositivo de TI vendido ao cliente final.
⇡#Agora para IA
O movimento metódico e consistente dos desenvolvedores da Arm ao longo de um curso escolhido objetivamente deu frutos muito em breve — quando a era dos smartphones surgiu no início da década de 2010 e, em seguida, a dos dispositivos “inteligentes” (em termos então não relacionados à IA) capazes de executar uma certa gama de tarefas — ainda que muito limitada — sem intervenção humana. Um sensor de janela que comanda uma persiana automática a se abaixar assim que o sol de verão brilha através de uma janela voltada para o sul; um sistema de visão computacional que permite que um robô aspirador de pó mapeie seus movimentos pelo apartamento; Um sensor de vazamento que corta o fornecimento de água em caso de emergência — todos esses são exemplos de sistemas embarcados cujos controladores simplesmente não exigem os superpoderes fornecidos pela arquitetura CISC. Além disso, os telefones celulares não requerem capacidade adicional de bateria; portanto, quanto mais eficiente em termos de energia for o sistema em um chip de um smartphone, maior será a duração da bateria — e maior será a satisfação do usuário com o dispositivo.Dispositivo econômico.
Uma arquitetura de processador heterogênea utiliza núcleos de baixo consumo para tarefas simples e núcleos de alto desempenho para tarefas complexas (fonte: Universidade do Texas em Austin).
Enquanto uma CPU de PC x86 pode facilmente consumir até 200 watts (e isso está longe do limite), um chip ARM típico de smartphone originalmente não exigia mais do que 2 a 3 watts. O consumo de energia é ainda mais reduzido pela arquitetura de computação heterogênea big.LITTLE, na qual o consumo potencial de energia de cada tarefa que chega ao processador, combinado com sua prioridade, determina em qual núcleo do chip ela será executada: um núcleo muito simples, que também opera com voltagem reduzida, ou um núcleo mais poderoso e complexo. Sob cargas de trabalho típicas de smartphones, de acordo com a Arm, a arquitetura big.LITTLE proporciona uma economia de energia de até 75% em comparação com uma arquitetura ARM similar com núcleos unificados. Em 2010, 6,1 bilhões de chips ARM haviam sido vendidos em todo o mundo — eles representavam 95% do mercado de smartphones, 35% do segmento de decodificadores e reprodutores de mídia e 10% das remessas de PCs portáteis (alguém se lembra se existiam nettops com ARM?).
Curiosamente, com o tempo, as arquiteturas RISC e CISC, aparentemente divergentes em nichos diferentes — PCs e servidores para a primeira, sistemas móveis e embarcados para a segunda — começaram a tentar se inserir uma na outra. Além dos já mencionados, mas ainda vistos como exóticos, minilaptops baseados em chips ARM, a própria Microsoft tentou promover seu tablet Surface com uma versão do Windows RT baseada em ARM — infelizmente, não cumpriu a promessa.As esperanças foram frustradas justamente pela falta de software de terceiros suficiente que precisasse ser recompilado para essa plataforma de baixo custo (e, portanto, pouco atraente do ponto de vista comercial). A Intel, por sua vez, tentou entrar no segmento de smartphones com a família de processadores Atom de “baixo consumo”, mas o hardware fundamentalmente dispendioso da arquitetura CISC a impediu de competir seriamente com os chips ARM nesse aspecto. No início da década de 2020, no entanto, um status quo bastante estável havia surgido: sistemas baseados em x86 eram escolhidos para tarefas de alto desempenho, enquanto sistemas baseados em ARM eram escolhidos para tarefas com eficiência energética. Parecia que essa tendência continuaria — pelo menos até que alguns computadores quânticos fossem aperfeiçoados —, mas então o boom da IA explodiu e a principal vantagem da arquitetura CISC — sua extrema flexibilidade no processamento de instruções complexas e de comprimento variável — tornou-se repentinamente irrelevante.
O tablet Surface ARM com Windows RT integrado é praticamente a única plataforma de hardware na qual este sistema operacional (e o conjunto limitado de softwares para ele) poderia, em princípio, funcionar. Embora a iniciativa tenha sido inicialmente apoiada por empresas como Lenovo, Asus, Samsung e Dell, as vendas foram tão modestas que o entusiasmo dos parceiros rapidamente se dissipou (fonte: Microsoft).
O principal procedimento realizado durante a emulação de redes neurais densas multicamadas em computadores de von Neumann é a multiplicação de matrizes. Essa operação é computacionalmente muito simples, mas precisa ser realizada em um número enorme de operadores, aproximadamente determinado pelo número de parâmetros do modelo: 671 bilhões no total (37 bilhões dos quais são ativos) para DeepSeek R1 e V3; possivelmente mais de um trilhão (os desenvolvedores mantêm o número exato em segredo) para GPT-5, Claude Opus 4.1 e Gemini 2.5 Pro. Não surpreendentemente, a arquitetura ARM se destaca nesse aspecto, graças ao seu foco em um número limitado de instruções curtas, grandes volumes de memória de registradores próximos aos circuitos lógicos e otimizações adicionais. Seguindo as extensões SIMD introduzidas no Armv7, a versão mais moderna Armv9 oferece extensões vetoriais escaláveis 2 (SVE2) e extensões de matrizes escaláveis (SME) modificadas para acelerar tarefas de aprendizado de máquina, simplificando ainda mais as operações com vetores e matrizes, respectivamente.As instruções especiais BFDOT e BFMMLA para processamento de números no formato BFloat16 (BF16), adaptadas para redes neurais, aceleram ainda mais a multiplicação de matrizes, reduzindo significativamente os requisitos de memória.Largura de banda.
É claro que um processador x86 potente, com acesso a quantidades comparáveis de RAM, lidará muito bem com esse tipo de tarefa, mas sua latência de execução será significativamente maior (precisamente devido à menor capacidade de memória de registro) e seu consumo de energia também será significativamente maior. E este último argumento é talvez o mais decisivo atualmente: novos data centers focados em IA já estão sendo equipados com reatores nucleares para satisfazer o apetite exorbitante dos computadores especializados de hoje, então qualquer maneira de economizar energia sem sacrificar o poder de processamento é absolutamente essencial. Além disso, como a arquitetura dos aceleradores gráficos da AMD e, principalmente, da Nvidia é semelhante à arquitetura RISC (em termos dos muitos núcleos focados na resolução de problemas simples e uma quantidade significativa de memória registrada), as CPUs baseadas em ARM interagem de forma mais eficaz com esses aceleradores do que aquelas construídas com base nos princípios CISC — o que é confirmado pela Nvidia, que oferece seus sistemas com processadores centrais Grace para tarefas de IA (sistemas de grande sucesso comercial, aliás). Processadores com arquitetura ARM estão sendo desenvolvidos e/ou já estão sendo implementados em servidores pela Microsoft (o projeto Cobalt 200), Google (o processador Axion, projetado especificamente para uso em data centers), AWS (toda uma série de chips Graviton), etc. Levando em consideração a rapidez com que a participação da computação de IA no volume total de cargas de trabalho em data centers está crescendo — segundo a McKinsey, um terço dos data centers do mundo já foi otimizado para essas cargas de trabalho, e até 2030 o consumo de energia dos data centers triplicará em comparação com o nível atual devido ao treinamento e execução de modelos generativos — pode-se presumir queEm nível global, a arquitetura RISC está finalmente superando a CISC, embora um pouco tarde, talvez meio século depois. Segundo analistas, até 2030, até 70% da carga computacional em data centers de hiperescala será gerada por soluções de IA — não é uma vitória? No entanto, se a notória “bolha da IA” estourar, o ecossistema CISC, como um todo, provavelmente experimentará um renascimento — mas essa será uma história completamente diferente.
Dois meses após a NVIDIA e a OpenAI assinarem um memorando de entendimento (MOU) para…
Os cientistas estão cada vez mais convencidos de que a estrutura do Universo é uma…
As remessas globais de smartphones dobráveis apresentaram crescimento recorde no terceiro trimestre de 2025, abrindo…
A AMD lançou o processador Ryzen 5 7400 de seis núcleos, o modelo de entrada…
A AWS anunciou seu processador de servidor Arm mais poderoso até o momento: o Graviton5…
Durante uma transmissão comemorativa do 25º aniversário da série de jogos de estratégia Total War,…