發佈年份 |
2025 |
2024(聯盟成立)、2025(1.0標準) |
2016 (首次) |
標準屬性 |
專有,開放給第三方晶片但需串接 NVIDIA 晶片 |
開放標準,產業聯盟共同推動 |
專有,僅限 NVIDIA 產品 |
主要用途 |
NVIDIA GPU 與第三方 CPU/AI 加速器高速互連 |
多品牌 AI 加速器高速互連 |
GPU-GPU、CPU-GPU 高速互連 |
支援規模 |
最高 72 顆 GPU+ 第三方加速器 (NVL72 等) |
最高 1,024 顆加速器 (單一 Pod) |
最高 72 顆 GPU (NVL72 架構) |
頻寬 |
主幹頻寬最高 130TB/s |
單通道 200Gb/s,x4 組態 800Gb/s |
單 GPU 總頻寬 1.8TB/s |
延遲 |
<1 微秒 |
<1 微秒 (4 米內纜線) |
<1 微秒 |
拓撲彈性 |
支援異質整合、機櫃級架構 |
內建 Switch,彈性組態 (x1、x2、x4) |
需 NVSwitch 支援大規模全互連 |
記憶體語義 |
支援 GPU 與第三方晶片間直接記憶體存取 |
支援 load/store/atomic 直接記憶體操作 |
支援 GPU 間直接記憶體存取 |
生態系 |
半開放,第三方晶片可接入但需 NVIDIA 參與 |
完全開放,多家供應商互通 |
封閉,僅 NVIDIA 產品 |
主要合作夥伴 |
NVIDIA、聯發科、高通、Marvell、富士通等 |
AMD、Intel、Broadcom、Google、Meta 等 |
NVIDIA |
產業定位 |
強化 NVIDIA 生態,擴展異質運算合作 |
打破壟斷,推動多元 AI 加速器生態 |
長期主導 AI 超算市場 |
採用授權 |
需授權,可能有授權費用 |
無授權費,開放規範 |
無 (僅自家產品) |