英偉達發(fā)布 H200 NVL 與 GB200 NVL4 新品
編譯/前方智能
英偉達于 2024 年 11 月 18 日在亞特蘭大舉行的 SC24 高性能計算大會上宣布推出新款數據中心級 GPU —— H200 NVL,以及更強大的四 GPU 產品 GB200 NVL4 Superchip,進一步擴展其在 AI 和高性能計算領域的優(yōu)勢。
圖源:英偉達
H200 NVL 是英偉達 Hopper 系列的最新成員,專為低功耗、風冷機架設計的數據中心打造。據調查顯示,約 70% 的企業(yè)機架功率在 20 千瓦以下,采用風冷方案。H200 NVL 采用 PCIe 接口設計,讓數據中心能夠靈活配置 GPU 數量,可選擇使用一個、兩個、四個或八個 GPU,從而在有限空間內實現更強大的計算能力。
與前代產品 H100 NVL 相比,H200 NVL 在性能方面實現了顯著提升:內存效率提高 1.5 倍,帶寬提升 1.2 倍。在大語言模型推理方面,性能最高可提升 1.7 倍;在高性能計算工作負載方面,相比 H100 NVL 性能提升 1.3 倍,較 Ampere 架構產品提升 2.5 倍。
新品還搭載了最新一代 NVLink 技術,GPU 間通信速度比第五代 PCIe 快 7 倍。每片 H200 NVL 配備 141GB 高帶寬內存,內存帶寬達到 4.8TB/s,熱設計功耗最高為 600 瓦。值得一提的是,H200 NVL 還附帶為期五年的 NVIDIA AI Enterprise 軟件平臺訂閱服務。
圖源:英偉達
同時發(fā)布的 GB200 NVL4 Superchip 是一款更為強大的產品,集成了兩個基于 Arm 的 Grace CPU 和四個采用 Blackwell 架構的 B200 GPU。該產品具備 1.3TB 的一致性內存,通過 NVLink 在四個 B200 GPU 間共享。與上一代 GH200 NVL4 相比,在 MILC 代碼模擬工作負載上速度提升 2.2 倍,在訓練 3700 萬參數的 GraphCast 天氣預報 AI 模型時快 80%,在使用 16 位浮點精度運行 70 億參數的 Llama 2 模型推理時同樣快 80%。
原文標題 : 英偉達發(fā)布 H200 NVL 與 GB200 NVL4 新品

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 大廠紛紛入局,百度、阿里、字節(jié)搶奪Agent話語權
- 3 深度報告|中國AI產業(yè)正在崛起成全球力量,市場潛力和關鍵挑戰(zhàn)有哪些?
- 4 上海跑出80億超級獨角獸:獲上市公司戰(zhàn)投,干人形機器人
- 5 國家數據局局長劉烈宏調研格創(chuàng)東智
- 6 下一代入口之戰(zhàn):大廠為何紛紛押注智能體?
- 7 百億AI芯片訂單,瘋狂傾銷中東?
- 8 Robotaxi新消息密集釋放,量產元年誰在領跑?
- 9 格斗大賽出圈!人形機器人致命短板曝光:頭腦過于簡單
- 10 “搶灘”家用機器人領域,聯通、海爾、美的等紛紛入局