18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用NVIDIA NVLink Fusion技術提升AI推理性能

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達企業(yè)解決方案 ? 作者:NVIDIA英偉達企業(yè)解 ? 2025-09-23 14:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI 模型復雜性的指數(shù)級增長驅動參數(shù)規(guī)模從數(shù)百萬迅速擴展到數(shù)萬億,對計算資源提出了前所未有的需求,必須依賴大規(guī)模 GPU 集群才能滿足?;旌蠈<遥∕oE)架構的廣泛應用以及測試時擴展(test-time scaling)在推理階段的引入,進一步加劇了計算負載。為實現(xiàn)高效的推理部署,AI 系統(tǒng)已發(fā)展出大規(guī)模并行化策略,包括張量并行、流水線并行和專家并行等技術。這些需求推動了支持內存語義的縱向擴展(Scale-up)計算網(wǎng)絡向更大的 GPU 域演進,構建統(tǒng)一的計算與內存資源池,實現(xiàn)高效協(xié)同。

本文詳細闡述了NVIDIA NVLink Fusion如何借助高效可擴展的 NVIDIA NVLink scale-up 架構技術,滿足日益復雜的 AI 模型不斷增長的需求。

ac1a8cd6-8e2d-11f0-8c8f-92fbcf53809c.png

圖 1:模型規(guī)模與復雜性的提升推動了 scale-up 域的擴展

NVLink 如何持續(xù)演進以滿足不斷增長的 scale-up 需求

NVIDIA 于 2016 年首次推出 NVLink,旨在克服 PCIe 在高性能計算和人工智能工作負載中的局限性。該技術實現(xiàn)了更快的 GPU 間通信,并構建了統(tǒng)一的內存空間。

2018年,NVIDIA 推出了 NVLink Switch 技術,實現(xiàn)了在 8 個 GPU 的網(wǎng)絡拓撲中每對 GPU 之間高達 300 GB/s 的 all-to-all 帶寬,為多 GPU 計算時代的 scale-up 網(wǎng)絡奠定了基礎。隨后,在第三代 NVLink Switch 中引入了 NVIDIA 可擴展分層聚合與歸約協(xié)議(SHARP)技術,進一步提升了性能,有效優(yōu)化了帶寬性能并降低了集合操作的延遲。

隨著 2024 年第五代 NVLink 的發(fā)布,進一步增強的 NVLink Switch 支持 72 個 GPU 實現(xiàn)全互聯(lián)通信,通信速率達 1800 GB/s,聚合總帶寬高達 130 TB/s,較第一代產(chǎn)品提升了 800 倍。

盡管 NVIDIA 已大規(guī)模部署 NVLink 近十年,但仍在不斷突破技術極限,對未來三代的 NVLink 產(chǎn)品,會保持每年推出一代的節(jié)奏。這一迭代策略推動了持續(xù)的技術進步,有效滿足了 AI 模型在復雜性和計算需求方面的指數(shù)級增長。

NVLink 的性能取決于硬件和通信庫,尤其是 NVIDIA 集群通信庫(NCCL)。

NCCL 作為一個開源庫,專為加速單節(jié)點和多節(jié)點拓撲中 GPU 之間的通信而設計,能夠實現(xiàn)接近理論帶寬的 GPU 到 GPU 通信性能。它無縫支持橫向和縱向擴展,具備自動拓撲感知與優(yōu)化能力。NCCL 已集成到所有主流深度學習框架中,歷經(jīng) 10 年的開發(fā)與 10 年的生產(chǎn)環(huán)境部署,技術成熟且廣泛應用。

ac93a968-8e2d-11f0-8c8f-92fbcf53809c.png

圖 2:NCCL 支持縱向擴展和橫向擴展,在所有主流框架中均受支持

最大化 AI 工廠收入

NVIDIA 在 NVLink 硬件和軟件庫方面積累了豐富的經(jīng)驗,配合大規(guī)模的計算域,能夠有效滿足當前 AI 推理計算的需求。其中,72-GPU 機架架構在多種應用場景中實現(xiàn)了卓越的推理性能,發(fā)揮了關鍵作用。在評估大語言模型(LLM)推理性能時,前沿帕累托(Frontier Pareto)曲線清晰地展現(xiàn)了每瓦吞吐量與延遲之間的權衡關系。

AI 工廠的生產(chǎn)和收入目標是最大化曲線下的面積。影響該曲線動態(tài)的因素眾多,包括原始算力、內存容量與吞吐量,以及 scale-up 技術,通過高速通信優(yōu)化實現(xiàn)張量并行、流水線并行和專家并行等技術。

在檢查各類 scale-up 配置的性能時,我們發(fā)現(xiàn)存在顯著差異,即使是使用相同的 NVLink 速度。

在 4 個 GPU 的 NVLink mesh 拓撲(無交換機)中,由于每對 GPU 之間只能分到有限帶寬,曲線會呈現(xiàn)下降趨勢。

采用 NVLink Switch 的 8 GPU 網(wǎng)絡拓撲能顯著提升性能,因為每對 GPU 之間均實現(xiàn)完全帶寬。

通過 NVLink Switch 擴展至 72 個 GPU 的域,可最大限度地提升性能和收益。

NVLink Fusion 實現(xiàn)對NVLink scale-up 技術的定制化使用

NVIDIA 推出了 NVLink Fusion,使超大規(guī)模數(shù)據(jù)中心能夠采用經(jīng)過生產(chǎn)驗證的 NVLink scale-up 技術。該技術可讓定制芯片(包括 CPU 和 XPU)與 NVIDIA 的 NVLink scale-up 網(wǎng)絡技術以及機架級擴展架構相集成,從而實現(xiàn)半定制化的 AI 基礎設施部署。

NVLink scale-up 技術涵蓋 NVLink SERDES、NVLink chiplets、NVLink 交換機以及機架級擴展架構的整體方案。高密度機架級擴展架構包括 NVLink spine、銅纜系統(tǒng)、創(chuàng)新的機械結構、先進的供電與液冷技術,以及供應鏈就緒的完整生態(tài)系統(tǒng)。

NVLink Fusion 為定制 CPU、定制 XPU 或兩者的組合配置提供了靈活的解決方案。作為模塊化開放計算項目(OCP)MGX 機架架構的一部分,NVLink Fusion 可與任何網(wǎng)卡(NIC)、數(shù)據(jù)處理器(DPU)或橫向擴展交換機集成,使客戶能夠根據(jù)需求靈活構建理想的系統(tǒng)。

對于自定義 XPU 配置,NVLink 通過通用芯粒互連(Universal Chiplet Interconnect Express, UCIe)IP 與接口實現(xiàn)集成。NVIDIA 提供支持 UCIe 的 NVLink 橋接芯片,既能實現(xiàn)極高性能,又便于集成,使客戶能夠像 NVIDIA 一樣充分利用 NVLink 的功能。UCIe 作為一項開放標準,采用該接口進行 NVLink 集成可讓客戶為其 XPU 靈活選擇當前或未來平臺的多種方案。

對于自定義 CPU 配置,建議集成 NVIDIA NVLink-C2C IP,以連接 NVIDIA GPU,從而實現(xiàn)最佳性能。采用定制 CPU 與 NVIDIA GPU 的系統(tǒng)可平滑訪問 CUDA 平臺的數(shù)百個 NVIDIA CUDA-X 庫,充分發(fā)揮加速計算的高性能優(yōu)勢。

由廣泛的生產(chǎn)就緒合作伙伴生態(tài)系統(tǒng)提供有力支持

NVLink Fusion 擁有一個強大的芯片生態(tài)系統(tǒng),涵蓋定制芯片、CPU 以及 IP 技術合作伙伴,不僅確保了廣泛的技術支持和快速的設計實現(xiàn),還持續(xù)推動著技術創(chuàng)新。

對于機架產(chǎn)品,用戶可受益于我們的系統(tǒng)合作伙伴網(wǎng)絡以及數(shù)據(jù)中心基礎設施組件供應商。這些合作伙伴和供應商已實現(xiàn) NVIDIA Blackwell NVL72 系統(tǒng)的大規(guī)模生產(chǎn)。通過整合生態(tài)系統(tǒng)與供應鏈資源,用戶能夠加快產(chǎn)品上市速度,并顯著縮短機架級擴展系統(tǒng),以及 scale-up 網(wǎng)絡的生產(chǎn)部署時間。

提升 AI 推理性能

NVLink 代表了滿足 AI 推理時代計算需求的重大飛躍。NVLink Fusion 充分融合了 NVIDIA 在 NVLink scale-up 技術領域長達十年的深厚積累,結合 OCP MGX 機架架構及生態(tài)系統(tǒng)開放的生產(chǎn)部署標準,為超大規(guī)模數(shù)據(jù)中心提供了卓越的性能與全面的定制化選項。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5442

    瀏覽量

    108494
  • AI
    AI
    +關注

    關注

    88

    文章

    37138

    瀏覽量

    291205
  • 模型
    +關注

    關注

    1

    文章

    3616

    瀏覽量

    51499

原文標題:借助 NVIDIA NVLink 和 NVLink Fusion 擴展 AI 推理性能和靈活性

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    英特爾FPGA 助力Microsoft Azure機器學習提供AI推理性能

    Machine Learning SDK 相集成以供預覽??蛻艨梢允褂?Azure 大規(guī)模部署的英特爾? FPGA(現(xiàn)場可編程邏輯門陣列)技術,為其模型提供行業(yè)領先的人工智能 (AI推理性能。
    的頭像 發(fā)表于 05-16 17:25 ?6782次閱讀

    NVIDIA擴大AI推理性能領先優(yōu)勢,首次在Arm服務器上取得佳績

    最新MLPerf基準測試表明,NVIDIA已將其在AI推理性能和能效方面的高標準擴展到Arm以及x86計算機。
    發(fā)表于 09-23 14:18 ?2864次閱讀
    <b class='flag-5'>NVIDIA</b>擴大<b class='flag-5'>AI</b><b class='flag-5'>推理性能</b>領先優(yōu)勢,首次在Arm服務器上取得佳績

    NVIDIA打破AI推理性能記錄

     NVIDIA憑借A100進一步擴大了在MLPerf基準測試中的領先優(yōu)勢,實現(xiàn)了比CPU快237倍的AI推理性能,助力企業(yè)將AI研究轉化為生產(chǎn)力。
    發(fā)表于 10-22 14:07 ?982次閱讀

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    。 **英偉達Blackwell架構在數(shù)據(jù)中心方面的應用有哪些?** 1. **AI **大模型訓練 Blackwell 架構的 GPU 針對當前火爆的 AI 大模型進行了優(yōu)化,能夠顯著提升訓練和
    發(fā)表于 05-13 17:16

    NVIDIA 在首個AI推理基準測試中大放異彩

    的BERT、GNMT 和Jasper 等AI模型開源優(yōu)化幫助開發(fā)者實現(xiàn)頂尖推理性能。NVIDIA的客戶和合作伙伴中包括有會話式AI領域的一流公司,比如Kensho、微軟、Nuance、
    發(fā)表于 11-08 19:44

    求助,為什么將不同的權重應用于模型會影響推理性能?

    生成兩個 IR文件(相同的 .xml 文件,但不同的 .bin 文件) 具有不同重量的類似模型,以不同的 fps (27fps 和 6fps) 運行 更多樣化的權重是否會影響 Myriad X 上的推理性能
    發(fā)表于 08-15 07:00

    如何提高YOLOv4模型的推理性能?

    使用 PyTorch 對具有非方形圖像的 YOLOv4 模型進行了訓練。 將 權重轉換為 ONNX 文件,然后轉換為中間表示 (IR)。 無法確定如何獲得更好的推理性能。
    發(fā)表于 08-15 06:58

    英特爾FPGA為人工智能(AI)提供推理性能

    Azure Machine Learning SDK 相集成以供預覽??蛻艨梢允褂?Azure 大規(guī)模部署的英特爾 FPGA(現(xiàn)場可編程邏輯門陣列)技術,為其模型提供行業(yè)領先的人工智能 (AI) 推理性能。 “作為一家整體
    發(fā)表于 05-20 00:10 ?3314次閱讀

    NVIDIA A100 GPU推理性能237倍碾壓CPU

    )的12個提交者增加了近一倍。 結果顯示,今年5月NVIDIANvidia)發(fā)布的安培(Ampere)架構A100 Tensor Core GPU,在云端推理的基準測試性能是最先進I
    的頭像 發(fā)表于 10-23 17:40 ?4916次閱讀
    <b class='flag-5'>NVIDIA</b> A100 GPU<b class='flag-5'>推理性能</b>237倍碾壓CPU

    NVIDIA發(fā)布最新Orin芯片提升邊緣AI標桿

    在首次參加行業(yè) MLPerf 基準測試時,基于 NVIDIA Ampere 架構的低功耗系統(tǒng)級芯片 NVIDIA Orin 就創(chuàng)造了新的AI推理性能紀錄,并在邊緣
    的頭像 發(fā)表于 04-08 10:14 ?5324次閱讀
    <b class='flag-5'>NVIDIA</b>發(fā)布最新Orin芯片<b class='flag-5'>提升</b>邊緣<b class='flag-5'>AI</b>標桿

    Nvidia 通過開源庫提升 LLM 推理性能

    加利福尼亞州圣克拉拉——Nvidia通過一個名為TensorRT LLM的新開源軟件庫,將其H100、A100和L4 GPU的大型語言模型(LLM)推理性能提高了一倍。 正如對相同硬件一輪又一輪改進
    的頭像 發(fā)表于 10-23 16:10 ?1209次閱讀

    開箱即用,AISBench測試展示英特爾至強處理器的卓越推理性能

    。 中國電子技術標準化研究院賽西實驗室依據(jù)國家標準《人工智能服務器系統(tǒng)性能測試規(guī)范》(征求意見稿)相關要求,使用AISBench?2.0測試工具,完成了第五代英特爾至強可擴展處理器的AI大模型
    的頭像 發(fā)表于 09-06 15:33 ?1150次閱讀
    開箱即用,AISBench測試展示英特爾至強處理器的卓越<b class='flag-5'>推理性能</b>

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?1096次閱讀
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平臺提高<b class='flag-5'>AI</b><b class='flag-5'>推理性能</b>

    NVIDIA推出NVLink Fusion技術

    NVIDIA 發(fā)布 NVIDIA NVLink Fusion,這款全新芯片將助力行業(yè)用戶通過全球領先且廣泛采用的計算互連架構 —— NVIDIA
    的頭像 發(fā)表于 05-22 09:59 ?614次閱讀

    利用NVIDIA DOCA GPUNetIO技術提升MoE模型推理性能

    在第三屆 NVIDIA DPU 中國黑客松競賽中,我們見證了開發(fā)者與 NVIDIA 網(wǎng)絡技術的深度碰撞。在 23 支參賽隊伍中,有 5 支隊伍脫穎而出,展現(xiàn)了在 AI 網(wǎng)絡、存儲和安全
    的頭像 發(fā)表于 09-23 15:25 ?504次閱讀