“我們相信未來需要一個AI和高性能計算平臺的統一平臺。”Nvidia加速計算部產品營銷經理Paresh Kharya在周二的新聞發布會上表示。
黃仁勛在GTC Taiwan 2018大會上宣布推出HGX-2云服務器平臺
Moor Insights&Strategy的高級分析師Karl Freund也告訴SiliconANGLE,“我認為人工智能將使HPC發生革命性變化 ,很多超級計算中心都很有可能部署HGX-2,因為它可以為HPC和AI增加強大的計算能力。”
更具體地說,這種新的架構可以實現包括科學計算和模擬在內的應用,如天氣預報,以及AI模型(如深度學習神經網絡)的訓練和運行,用于諸如圖像和語音識別以及自動駕駛汽車的導航。 Kharya說:“這些模型正在以前所未有的速度更新,有時甚至每小時更新一次。”
NvidiaHGX-2云服務器平臺
HGX架構由Nvidia的GPU提供動力,該架構的第一個版本HGX-1于一年前宣布。該架構為微軟的 Project Olympus,Facebook的 Big Basin系統和Nvidia自己的 DGX-1 AI超級計算機以及服務中使用的數據中心設計,如亞馬遜AWS。
本質上,HGX-2由Nvidia的16個高端V100 GPU組成,運用了Nvidia NVSwitch互聯結構,16個GPU完全連接,作為一個整體來使用。速度可達2 PFLOPS。
另據了解,HGX-2作為云服務器平臺,具備多精度計算能力,支持面向科學計算和模擬的高精度FP64和FP32計算,也支持AI訓練和推理所用的FP16和INT8精度。HGX-2執行AI訓練的速度,在ResNet-50基準上達到了每秒15500張圖片,相當于300臺只裝了CPU的服務器。
“基本上,開發者現在可以將HGX看作有16個GPU計算資源非常強大的池子。”Freund解釋說。對于想要生產HPC和AI通用的最先進系統的廠商來說,HGX-2是一個組件。
Nvidia今天也表示,最近宣布的DGX-2 AI超級計算機是第一個使用HGX-2的系統,它將在第三季度銷售,售價399,000美元,黃仁勛在會議主旨演講的直播中開玩笑說,“買得越多,省得越多”,盡管他似乎也是這樣認為的。
Nvidia已經推出的服務器將CPU與GPU混合在一起,用于人工智能訓練、推理或模型運行以及超級計算的優化配置。Kharya試圖將HGX架構定位為類似于英特爾和微軟開發的ATX個人電腦主板配置標準,這導致許多公司制造的兼容系統組件爆炸式增長。
在周二宣布計劃建造HGX-2系統的公司中,包括服務器制造商聯想、廣達云(QCT),超微電腦和緯穎(Wiwynn)將在今年晚些時候推出HGX-2系統。另外,黃仁勛表示NVIDIA 正式啟動全球頂尖 ODM 伙伴合作計劃鴻海精密,英業達,廣達電腦和緯創這些全球設計生產大廠都將成為合作伙伴,加速因應 AI 云端運算的各種需求。