據報道,英偉達已取消其第一代SOCAMM(Small Outline Compssion Attached Memory Module)的推廣,并將開發重點轉向名為 SOCAMM2 的新版本技術開發。這一調整旨在進一步優化內存模塊性能,更好適配AI服務器領域的需求。
SOCAMM是英偉達(NVIDIA)開發的新型內存技術,旨在為AI服務器提供高帶寬、低功耗的內存解決方案技術開發。該技術通過模塊化設計實現類似HBM(高帶寬內存)的性能,但成本更低。業內認為,SOCAMM2為高性能計算提供了堅實的基礎,功耗大幅降低,在同容量下帶寬提升至2.5倍,顯著降低AI推理延遲,主要面向HPC、通用服務器、AI集群服務器、AI訓練/推理、智能輔助駕駛和工業邊緣網關等應用場景。隨著生成式 AI、自動駕駛等場景對內存帶寬需求的指數級增長,SOCAMM2 憑借性價比優勢,預計在2025-2027年成為AI服務器的主流選擇之一。