A Micron lançou uma versão de produção do chip HBM3E de 12 camadas adequado para a próxima geração de GPUs de inteligência artificial (AI), com uma capacidade de pilha de memória de até 36 GB e velocidades superiores a 9,2 GB/s.A Micron afirmou que está atualmente fornecendo a produção portátil de 12 camadas de quinta geração HBM (HBM3E) a parceiros importantes na cadeia da indústria de IA para procedimentos de verificação.
A Micron anunciou oficialmente o lançamento da HBM3E Memory com uma pilha de 12 camadas em 9 de setembro.O novo produto tem uma capacidade de 36 GB e foi projetado para processadores de ponta para cargas de trabalho de IA e HPC (computação de alto desempenho), como GPUs H200 e B100/B200 da NVIDIA.
A pilha de memória HBM3E de 12 camadas da Micron tem uma capacidade de 36 GB, que é 50% maior que a versão anterior de 8 camadas (24 GB).O aumento da capacidade permite que os data centers executem modelos de IA maiores em um único processador.Esse recurso elimina a necessidade de descarga frequente da CPU, reduz a latência da comunicação entre as GPUs e acelera o processamento de dados.
Em termos de desempenho, a pilha HBM3E de 12 camadas da Micron pode fornecer largura de banda de memória excedendo 1,2 TB/se taxas de transferência de dados excedendo 9,2 GB/s.Segundo a Micron, o HBM3E da empresa não apenas fornece 50% mais capacidade de memória que seus concorrentes, mas também consome menos energia do que a pilha HBM3E de 8 camadas.
O HBM3E de 12 camadas da Micron inclui um sistema de autoteste integrado de memória totalmente programável (MBIST) para garantir um tempo mais rápido do produto para o mercado e a confiabilidade para os clientes.Essa tecnologia pode simular o tráfego no nível do sistema a toda velocidade, permitindo testes abrangentes e validação mais rápida de novos sistemas.
Os dispositivos de memória HBM3E da Micron são compatíveis com a tecnologia de embalagem Cowos da TSMC, que é amplamente utilizada em pacotes de processador de IA, como o H100 e o H200 da NVIDIA.
É relatado que a Micron começou a desenvolver suas soluções de memória de próxima geração, incluindo HBM4 e HBM4E.Esses próximos tipos de memória continuarão a atender à crescente demanda por memória avançada nos processadores de IA, incluindo as GPUs da NVIDIA baseadas nas arquiteturas Blackwell e Rubin.