Microsoft, The Information'ın bildirdiğine göre, AI sunucuları ve hızlandırıcılarla donatılmış veri merkezleri için özelleştirilmiş bir ağ adaptörü tasarlıyor. Yeni ürünlerin kullanımıyla kaynak yoğun AI görevlerinin işlenmesinde performansın artırılması ve ekipman alım maliyetlerinin azaltılması beklenmektedir.
NVIDIA ConnectX-7'ye Rakip Olarak
Bu, bildirildiğine göre, NVIDIA ConnectX-7 seviyesinde bir ağ adaptörü veya DPU oluşturulmasını içerir. Bu çözüm, 400 Gbps'ye kadar bant genişliği sağlayan dört porta kadar destek sunar. Bulut, telekomünikasyon ve kurumsal yükler için veri merkezlerinde AI trafik işleme, depolama, güvenlik ve yönetim için donanım hızlandırması desteklenmektedir.
Proje Yönetimi ve Gelişmeler
Microsoft'un bu yeni ürün geliştirme projesinin yaklaşık bir yıl sürebileceği bilinmektedir. Projenin başında, Ocak ayında HPE tarafından 14 milyar dolara satın alınan Juniper Networks şirketinin kurucu ortağı ve eski CEO'su Pradeep Sindhu yer almaktadır. Microsoft, kendi ağ adaptörünü NVIDIA hızlandırıcıları ile donatılmış AI sunucularının ağ trafiğini yönetmek için kullanmayı planlamaktadır. Amaç, CPU üzerindeki yükü azaltmak ve veri işleme hızını artırmaktır.
Önceki Yatırımlar ve Diğer Projeler
2023 yılı başlarında, Microsoft, Pradeep Sindhu tarafından kurulan DPU Fungible geliştiricisini satın aldı. Microsoft'un zaten MANA adında özel bir DPU'su bulunmaktadır ve yüksek bant genişliği sağlama amacıyla özel olarak tasarlanmış bir yonga (SoC) üzerine kurulmuştur. Ayrıca, şirket Pensando adında bir DPU da kullanmaktadır. Microsoft, veri merkezleri için diğer bileşenler de tasarlamaktadır, bunlar arasında 128 çekirdekli Arm işlemcisi Cobalt 100 ve AI hızlandırıcısı Maia 100 bulunmaktadır. Son olarak, Microsoft'un Intel Foundry'den Intel 18A teknoloji sürecine göre özel yongalar üretmek için sipariş verdiği ortaya çıktı.