Super X AI Technology Limited 發表了其最新的旗艦產品——SuperX XN9160-B200 AI 伺服器。此新一代系統旨在滿足對可擴展、高效能運算能力日益增長的需求。該伺服器整合了 NVIDIA 的 Blackwell B200 GPU 架構,專為 AI 訓練、機器學習 (ML) 和高效能運算 (HPC) 中的密集型工作負載而設計。
XN9160-B200 AI 伺服器專為加速大規模分散式 AI 訓練和推論任務而打造。據報導,該系統的效能相較於上一代 H100 系列,在 AI 創新方面實現了高達 30 倍的加速,是一次重大的技術飛躍。其運算能力旨在與傳統超級電腦相媲美,同時以更精巧的企業級外形呈現。此次發表是該公司 AI 基礎設施策略藍圖中的一個重要里程碑。
該伺服器的核心是八個透過第五代 NVLink 技術連接的 NVIDIA Blackwell B200 GPU,可提供高達 1.8TB/s 的 GPU 間頻寬。此配置旨在將大規模 AI 模型訓練速度提高三倍。在推論任務方面,該系統利用 1440GB 的高頻寬 HBM3E 記憶體,與上一代相比效能顯著提升。該系統的運算架構還得到了第六代英特爾®至強®處理器和高速 DDR5 記憶體的支援,所有部件均整合在一個 10U 機箱中。
該伺服器針對一系列進階應用進行了最佳化,包括使用強化學習和蒸餾等技術的基礎模型訓練與推論、多模態模型處理以及複雜的 HPC 模擬。具體應用領域涵蓋氣候建模、藥物發現、地震分析和保險風險建模等。
為確保關鍵 AI 任務的運行穩定性,XN9160-B200 採用了先進的多路徑電源備援解決方案,配備多個備援電源,以降低單點故障的風險。管理由內建的智慧管理系統負責,支援遠端監控。該公司指出,每台伺服器都經過嚴格的滿載壓力測試和老化篩選,以確保其可靠性。
XN9160-B200 的主要市場包括大型科技公司、學術和研究機構,以及金融、製藥和政府氣象機構等專業領域。Super X AI Technology Limited 總部位於新加坡,為全球機構客戶提供包括硬體、軟體和端對端服務在內的 AI 資料中心綜合解決方案。