英偉達H100人工智能服務器GPU算力租賃
產品別名 |
NVIDIA英偉達,H100,服務器,GPU算力租賃 |
面向地區 |
|
材料 |
金屬 |
材料晶體結構 |
單晶 |
材料物理性質 |
導體 |
輸出信號 |
模擬型 |
NVIDIA英偉達H100人工智能服務器為各類數據中心提供出色的性能、可擴展性和安全性。
加速計算的數量級飛躍
通過 NVIDIA H100 Tensor Core GPU,在每個工作負載中實現出色性能、可擴展性和安全性。使用 NVIDIA? NVLink? Switch 系統,可連接多達 256 個 H100 來加速百億億級 (Exascale) 工作負載,另外可通過的 Transformer 引擎來處理萬億參數語言模型。與上一代產品相比,H100 的綜合技術創新可以將大型語言模型的速度提高 30 倍,從而提供業界的對話式 AI。
準備好迎接企業 AI 了嗎?
企業采用 AI 現已成為主流,企業組織需要端到端的 AI 就緒型基礎架構,加快自身邁向新時代的步伐。
適用于主流服務器的 H100 隨附五年期 NVIDIA AI Enterprise 軟件套件訂閱(包括企業支持),能夠以強大的性能簡化 AI 的采用。這可確保組織能夠訪問構建 H100 加速的 AI 工作流所需的 AI 框架和工具,例如 AI 聊天機器人、推薦引擎和視覺 AI 等。
NVIDIA英偉達H100人工智能服務器GPU算力租賃配置參數:
項目 標準配置
框架 8U 機架式服務器
處理器 2 顆至強 Platinum 8468
48 核/3.8GHz 主頻/105MB 緩存
內存 DDR5 4800MHz ECC 內存容量 512GB
GPU NVIDIA HGX H100 GPU 模組
系統硬盤 M.2 NVMe PCIe 接口 2TB SSD
數據硬盤 2*10TB 企業級 SATA 硬盤
RAID 10 陣列配置
InfiniBand 網絡 200G/雙端口/QSFP56
Ethernet 網卡 OCP 網卡/雙電口/10G
PICE 插槽 9 個 PCIe 5.0 擴展插槽
電源 6*3000W,2*2700W,AC220 輸入
風扇 10 個 54V 風扇組
操作系統 Windows Server/RedHat Enterprise Linux/SUSE Linux Enterprise
Server/CentOS/Ubuntu/Vmware EXSi
工作溫度 +5°~+35°
其他接口 機箱后部:1 個 RJ45 管理接口,2 個 USB 3.0,1 個 VGA
機箱前部:2 個 USB 3.0,1 個 VGA
整機凈重 120KG(以實際配置為準)
安全地加速從企業級到百億億次級規模的工作負載
實時深度學習推理:AI 正在利用一系列廣泛的神經網絡解決范圍同樣廣泛的一系列商業挑戰。出色的 AI 推理加速器不僅要提供非凡性能,還要利用通用性加速這些神經網絡。
H100 進一步擴展了 NVIDIA 在推理領域的市場地位,其多項技術可將推理速度提高 30 倍,并提供低的延遲。第四代 Tensor Core 可加速所有精度(包括 FP64、TF32、FP32、FP16 和 INT8)。Transformer 引擎可結合使用 FP8 和 FP16 精度,減少內存占用并提,同時仍能保持大型語言模型的準確性。
超大模型的 AI 推理性能提升高達 30 倍
HPC 應用的性能提升高達 7 倍
百億億次級計算:NVIDIA 數據中心平臺性能持續提升,摩爾定律。H100 的全新突破性 AI 性能進一步加強了 HPC+AI 的力量,加速科學家和研究人員的探索,讓他們全身心投入工作,解決世界面臨的重大挑戰。
H100 使雙精度 Tensor Core 的每秒浮點運算 (FLOPS) 提升 3 倍,為 HPC 提供 60 teraFLOPS 的 FP64 浮點運算。融合 AI 的計算應用可以利用 H100 的 TF32 精度實現 1 petaFLOP 的吞吐量,從而在不更改代碼的情況下,實現單精度矩陣乘法運算。
H100 還采用 DPX 指令,其性能比 NVIDIA A100 Tensor Core GPU 高 7 倍,在動態編程算法(例如,用于 DNA 序列比對 Smith-Waterman)上比僅使用傳統雙路 CPU 的服務器快 40 倍。
加速數據分析:在 AI 應用開發過程中,數據分析通常會消耗大部分時間。原因在于,大型數據集分散在多臺服務器上,由僅配備商用 CPU 服務器組成橫向擴展式的解決方案缺乏可擴展的計算性能,從而陷入困境。
搭載 H100 的加速服務器可以提供相應的計算能力,并利用 NVLink 和 NVSwitch 每個 GPU 3 TB/s 的顯存帶寬和可擴展性,憑借應對數據分析以及通過擴展支持龐大的數據集。通過結合使用 NVIDIA Quantum-2 InfiniBand、Magnum IO 軟件、GPU 加速的 Spark 3.0 和 NVIDIA RAPIDS?,NVIDIA 數據中心平臺能夠以出色的性能和效率加速這些大型工作負載。
為企業提高資源利用率:IT 經理設法更大限度地提高數據中心計算資源的利用率(峰值和平均值)。他們通常會通過動態重新配置來合理調整計算資源,從而滿足正在處理的工作負載的需求。
H100 中的第二代多實例 GPU (MIG) 技術通過安全地將每個 GPU 分為 7 個立實例,更大限度地提高每個 GPU 的利用率。憑借機密計算支持,H100 可實現端到端多租戶的安全使用,非常適合云服務提供商 (CSP) 環境。
使用支持 MIG 技術的 H100,基礎架構管理員可對其 GPU 加速的基礎架構作標準化處理,同時能夠靈活地為 GPU 資源配置更精細的粒度,從而安全地為提供正確的加速計算量,并確保其所有 GPU 資源得到充分利用。
內置機密計算:當今的機密計算解決方案基于 CPU,對于 AI 和 HPC 等計算密集型工作負載來說,這些解決方案遠遠無法滿足需求。NVIDIA 機密計算是 NVIDIA Hopper? 架構的內置安全功能,該功能使 H100 成為 NVIDIA 率先推出的具有機密計算功能的加速器。用戶可以在獲取 H100 GPU 出色加速功能的同時,保護使用中的數據和應用的機密性和完整性。它創建了基于硬件的可信執行環境 (TEE),用于保護并隔離在單個 H100 GPU、節點內多個 H100 GPU 或單個 MIG 實例上運行的整個工作負載。在 TEE 內,GPU 加速應用的運行可以保持不變,且不必對其進行分區。用戶可以將適用于 AI 和 HPC 的 NVIDIA 軟件的強大功能與 NVIDIA 機密計算提供的硬件信任根的安全性相結合。
為大規模 AI 和計算提供出色的性能:Hopper Tensor Core GPU 將為 NVIDIA Grace Hopper CPU+GPU 架構提供支持,該架構專為 TB 級加速計算而構建,可為大型 AI 和 HPC 提供 10 倍的性能。NVIDIA Grace CPU 利用 Arm? 架構的靈活性來創建 CPU 和服務器架構,該架構是針對加速計算而從頭開始設計的。Hopper GPU 與 Grace CPU 搭配,使用 NVIDIA 超快速的芯片間互連技術,可提供 900GB/s 的帶寬,比 PCIe 5.0 快 7 倍。與當今運行快的服務器相比,這種創新設計將 GPU 的聚合系統顯存帶寬提高 30 倍,并且會將運行數萬億字節數據的應用性能提高 10 倍。
查看全部介紹