2023-05-30 05:46:20 作者:老王
COMPUTEX-NVIDIA公司今天宣布推出一款新型大內存AI超級計算機--NVIDIA DGX?超級計算機,該計算機由NVIDIA? GH200 Grace Hopper超級芯片和NVIDIA NVLink?交換機系統提供動力,旨在為生成型AI語言應用、推薦系統和數據分析工作負載開發巨型的下一代模型。
[#zolsplit_eca_zolecjd電商推廣區域分隔符開始#]
【資料圖】
[經銷商]
[產品售價]
[#zolsplit_ecb電商推廣區域分隔符結束#]
NVIDIA DGX GH200的巨大共享內存空間利用NVLink互連技術與NVLink交換系統,將256個GH200超級芯片結合在一起,使它們能夠作為單個GPU來執行。這提供了1exaflops的性能和144T的共享內存,比2020年推出的上一代NVIDIA DGX A100的內存多出近500倍。
"生成性人工智能、大型語言模型和推薦系統是現代經濟的數字引擎,"英偉達創始人兼首席執行官黃仁勛說。"DGX GH200 AI超級計算機整合了英偉達最先進的加速計算和網絡技術,以拓展AI的前沿領域。"
英偉達NVLink技術擴大了AI的規模
GH200超級芯片使用NVIDIA NVLink-C2C芯片互連,將基于Arm的NVIDIA Grace? CPU與NVIDIA H100 Tensor Core GPU結合在同一封裝中,從而消除了對傳統CPU至GPU的連接的需求。與最新的PCIe技術相比,這將GPU和CPU之間的帶寬提高了7倍,將互連功耗削減了5倍以上,并為DGX GH200超級計算機提供了一個600GB的Hopper架構GPU構建塊。
DGX GH200是第一臺將Grace Hopper超級芯片與NVIDIA NVLink交換系統配對使用的超級計算機,NVLink交換系統是一種新的互連方式,能夠使DGX GH200系統中的所有GPU作為一個整體協同工作。上一代系統只提供八個GPU與NVLink結合為一個GPU,而不影響性能。
DGX GH200架構提供的NVLink帶寬是上一代的48倍,以單顆GPU的簡單編程提供了大規模AI超級計算機的能力。
為人工智能先驅者提供的新研究工具
谷歌云、Meta和微軟是首批有望獲得DGX GH200的用戶,以探索其在生成型AI工作負載方面的能力。英偉達還打算將DGX GH200的設計作為藍本提供給云服務提供商和其他超大規模企業,以便他們能夠為自己的基礎設施進一步定制。
"谷歌云計算副總裁Mark Lohmeyer表示:"構建先進的生成模型需要創新的AI基礎設施方法。"新的NVLink規模和Grace Hopper超級芯片的共享內存解決了大規模人工智能的關鍵瓶頸問題,我們期待著為谷歌云和我們的生成性人工智能計劃探索其能力。"
"隨著人工智能模型越來越大,它們需要強大的基礎設施,可以擴展以滿足日益增長的需求,"Meta公司基礎設施、人工智能系統和加速平臺副總裁Alexis Bj?rlin說。"NVIDIA的Grace Hopper設計看起來為研究人員提供了探索新方法的能力,以解決他們最大的挑戰。"
"訓練大型人工智能模型在傳統上是一項資源和時間密集型任務,"微軟Azure基礎設施公司副總裁Girish Bablani說。"DGX GH200處理TB級數據集的潛力將使開發人員能夠以更大的規模和加速的速度進行先進的研究。"
新的NVIDIA Helios超級計算機將推動研究和開發
英偉達正在建造自己的基于DGX GH200的人工智能超級計算機,為其研究人員和開發團隊的工作提供動力。
這臺超級計算機被命名為NVIDIA Helios,它將擁有四個DGX GH200系統。每個系統都將與英偉達Quantum-2 InfiniBand網絡互連,為訓練大型人工智能模型提高數據吞吐量。Helios將包括1,024個Grace Hopper超級芯片,預計將于今年年底上線。
完全集成,專為巨型模型而生
DGX GH200超級計算機包括英偉達軟件,為最大的人工智能和數據分析工作負載提供了一個交鑰匙的全棧解決方案。NVIDIA Base Command?軟件提供了AI工作流程管理、企業級集群管理、加速計算、存儲和網絡基礎設施的庫,以及為運行AI工作負載而優化的系統軟件。
此外,還包括NVIDIA AI Enterprise,這是NVIDIA AI平臺的軟件層。它提供了100多個框架、預訓練模型和開發工具,以簡化生產型AI的開發和部署,包括生成型AI、計算機視覺、語音AI等。
供應情況
NVIDIA DGX GH200超級計算機預計將于今年年底上市。
責任編輯:Rex_30