A memória Graphics Double Data Rate ou GDDR é um componente crítico de dispositivos de alto desempenho, especialmente nos setores gráficos e de IA. O estágio mais recente no desenvolvimento de tecnologia é a memória GDDR7. No programa da Conferência Internacional IEEE de Circuitos de Estado Sólido de fevereiro de 2024, a Samsung está anunciando “DRAM GDDR7 de 16 Gbps, 37 Gbps com correção TRX otimizada para PAM3 e calibração ZQ”.
A memória GDDR7 que a Samsung está a preparar permitirá taxas de transferência de dados de até 37 Gbps por pino, o que corresponde a uma largura de banda de 37 GT/s. Ou seja, o novo chip Samsung GDDR7 de 16 GB será capaz de fornecer velocidades de transferência de dados de até 148 GB/s, e o subsistema de memória de uma placa de vídeo desses chips em combinação com um barramento de 384 bits fornecerá uma taxa de transferência de 1.776 TB/s. Para efeito de comparação, a atual GeForce RTX 4090 com memória GDDR6X fornece 1.008 TB/s. Além de maior desempenho, o chip Samsung GDDR7, segundo a fabricante, consome 20% menos energia.
O circuito PAM3 ajudou a atingir velocidades tão altas – modulação de amplitude de pulso com três níveis de sinal (-1, 0 e +1). Este mecanismo permite que três bits de dados sejam transferidos em dois ciclos, o que é mais eficiente que o NRZ de dois níveis do GDDR6. No entanto, os sinais PAM3 são mais difíceis de gerar e decodificar do que os sinais NRZ, o que leva ao aumento do consumo de energia, e são mais suscetíveis a interferências. Mas o PAM3 ainda tem mais vantagens, por isso este circuito é usado no GDDR7.
A Samsung também mencionou que usou um composto epóxi com resistência térmica 70% maior, o que é um sinal de que os módulos de memória GDDR7 esquentam mais que o GDDR6, especialmente em altas velocidades de clock. A fabricante prometeu uma versão GDDR7 com menor tensão de operação para notebooks, mas a empresa não especificou os indicadores de desempenho dos componentes desta versão.
Espera-se que o GDDR7 esteja disponível com a próxima geração de GPUs AMD e NVIDIA, provavelmente ainda este ano.