這些服務器專為需要低延遲和高應用性能的AI應用所設計。2UNVIDIAHGXA1004-GPU系統適于大規模部署具有高速CPU-GPU和GPU-GPU互連的現代AI訓練叢集。而Supermicro2U2-Node系統則可通過共享電源供應和冷卻風扇來減少能耗和成本,降低碳排放,同時可匹配工作負載選用多款GPU加速器。這兩款系統皆內含由目前最新的IntelSoftwareGuardExtensions(IntelSGX)實現的高級安全功能。
Supermicro總裁暨首席執行官CharlesLiang表示:“Supermicro工程師再度為我們豐富多元的高性能GPU服務器系列打造出了全新產品,相比于市場上的其他設計更能節省成本、空間以及能耗。憑借創新的設計,我們為客戶的AI和HPC(高性能運算)工作負載,提供可搭載4個NVIDIAHGXA100(代號:Redstone)GPU加速器的2U高密度GPU系統。此外,我們的2U2節點系統經過獨特設計,可共享電源供應和散熱元件,進而降低營運成本以及對環境的影響。”
此款2UNVIDIAHGXA100服務器采用第3代IntelXeon可擴展處理器平臺,支持IntelDeepLearningBoostTechnology,且針對分析、訓練和推理工作負載進行了優化設計。此系統可搭載4顆A100GPU并以NVIDIANVLink技術完全互連,提供高達2.5petaflops的AI性能。其高達320GB的GPU內存,可加速企業數據科學以及AI方面的突破。對于如BERT大型推理等復雜型對話式AI模型,此系統比上一代GPU的演算快了4倍,而在BERT大型AI訓練方面則有3倍的性能提升。
此外,這些系統采用高級散熱和冷卻設計,成為優先考慮節點密度和電源效率的高效能叢集的理想選擇。這些系統還可以采用液冷系統,從而節省更多的運營成本。該平臺亦支持IntelOptane持續型內存(PMem),在GPU上進行處理之前,可以將更大的模型儲存在靠近CPU的內存中。對于需要多系統互動的應用,此系統還可以配備4張NVIDIAConnectX-6200Gb/s網速的InfiniBand卡,以1:1GPU-DPU的比例支持GPUDirectRDMA。
全新的2U2節點是一種節能的資源節省架構,設計能讓每個節點支持至多3張雙倍寬度的GPU。每個節點還配備一個具有多達40個核心、內建AI及HPC加速器的第3代IntelXeon可擴展處理器。廣泛的AI、渲染和VDI應用都能從這種CPU和GPU的平衡設計中受益。該系統配備Supermicro的高級I/O模塊(AIOM)擴充插槽,具有快速靈活的網絡連接功能,可在運行工作負載和處理深度學習模式時負荷龐大的數據流量,滿足高度需求的AI/ML應用程序、深度學習訓練和推理。本系統也是多運行個體的高級云游戲和許多其它計算密集型VDI應用程序的理想選擇。此外,虛擬內容交付網絡(vCDN)能滿足對流媒體服務日益增長的需求。系統內建的備用的電源供應器,能供任何一個節點都能在發生故障時使用相鄰節點的電源供應器。