Micron şirketi, 24 GB'lık 8 katmanlı yığın formatında yüksek performanslı HBM3E belleğin seri üretimine başladığını duyurdu. Bu mikroçipler, NVIDIA H200 özel yapay zeka hızlandırıcılarının bir parçası olarak kullanılacak ve kitlesel sevkiyatları 2024 yılının ikinci takvim çeyreğinde başlayacak.
Artan Yapay Zeka Hesaplama Talepleri
Micron, yapay zeka hesaplamalarındaki artan talebin, bellek konusunda yeni yüksek performanslı çözümler gerektirdiğini belirtiyor. Micron'un yeni HBM3E mikroçipleri, bu gereksinimlere tam olarak yanıt veriyor.
HBM3E Teknolojisinin Özellikleri
24 GB kapasiteli 8 katmanlı HBM3E bellek yığınları için Micron, 9,2 Gbps'lik bir hızda veri iletimi ve 1,2 TB/s'den daha yüksek bir bant genişliği sunuyor. Micron'un iddiasına göre, HBM3E bellek yongaları, diğer üreticilerin benzer çözümlerine göre %30 daha enerji verimli.
Yapay Zeka İşlemlerinin Ölçeklenebilirliği
24 GB'lık büyük kapasiteye sahip HBM3E yongaları, veri işleme merkezlerinin yapay zeka ile ilgili görevlerini, büyük ölçekte nöral ağların eğitimi veya çıkarım hızlandırılması gibi, sorunsuz bir şekilde ölçeklendirmesine olanak tanıyor.
İnovatif Üretim Süreci
Micron, HBM3E bellek yongalarını, kendi en son 1β (1-beta) teknolojik süreci ve Through-silicon via (TSV) gibi paketleme teknolojileriyle birlikte üretiyor. Micron, HBM3E bellek yongalarını TSMC tesislerinde üretecek.
Gelecek Nesil HBM3E Bellekler
Şirket ayrıca, bu yılın Mart ayında, daha yüksek, 36 GB kapasiteli ve daha fazla bant genişliği sağlayan ileri düzey 12 katmanlı HBM3E bellek yongalarının prototiplerini üreticilere göndereceğini duyurdu.