英偉達推出下一代AI超級計算機芯片HGX H200比H100推理速度快一倍

英偉達NVIDIA)在本周一發(fā)布了其最新的人工智能超級計算機芯片 HGX H200,該芯片基于英偉達的“Hopper”架構,能夠加速深度學習和大型語言模型(LLM)等人工智能應用。

英偉達推出下一代AI超級計算機芯片HGX H200比H100推理速度快一倍

HGX H200 是 H100 GPU 的繼任者,也是英偉達首款使用 HBM3e 內存的芯片,這種內存速度更快,容量更大,因此更適合大型語言模型。英偉達稱,HGX H200 可以提供 141GB 的內存和每秒 4.8TB 的帶寬,與 A100 相比,容量幾乎是其兩倍,帶寬增加了 2.4 倍。在人工智能方面,英偉達表示,HGX H200 在 Llama 2(700 億參數 LLM)上的推理速度比 H100 快了一倍。

HGX H200 將以 4 路和 8 路的配置提供,與 H100 系統(tǒng)中的軟件和硬件兼容。它將適用于每一種類型的數據中心(本地、云、混合云和邊緣),并由 Amazon Web Services、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 等部署,將于 2024 年第二季度推出。

除了 HGX H200,英偉達還發(fā)布了一款整合了 H200 GPU 和基于 Arm 的英偉達 Grace CPU 的超級芯片 GH200,該芯片專為超級計算機設計,能夠處理 TB 級數據的復雜 AI 和 HPC 應用程序。GH200 將被用于全球研究中心、系統(tǒng)制造商和云提供商的 40 多臺 AI 超級計算機,其中包括 HPE 的 Cray EX2500 超級計算機和德國 Jülich 工廠的 JUPITER 超級計算機。

英偉達表示,這些新芯片將有助于在多個領域取得科學突破,包括氣候和天氣預測、藥物發(fā)現、量子計算和工業(yè)工程,其中許多領域使用定制的英偉達軟件解決方案,這些解決方案簡化了開發(fā),但也使超級計算團隊依賴于英偉達硬件。

英偉達推出下一代AI超級計算機芯片HGX H200比H100推理速度快一倍

英偉達在 AI 和數據中心領域的收入持續(xù)增長,上個季度達到了創(chuàng)紀錄的 103.2 億美元,占總收入的 76%。英偉達無疑希望新的 GPU 和超級芯片能夠幫助其繼續(xù)這一趨勢。

原創(chuàng)文章,作者:NEWS,如若轉載,請注明出處:http://2079x.cn/article/595556.html

NEWS的頭像NEWS認證作者

相關推薦

發(fā)表回復

登錄后才能評論