18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA技術(shù)助力線(xiàn)上大模型推理

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá) ? 2021-10-28 15:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著騰訊微信的發(fā)展,微信搜索也成為其越來(lái)越重要的功能,這個(gè)功能可以用來(lái)搜索微信內(nèi)部的賬號(hào)、信息,以及搜索互聯(lián)網(wǎng)上的內(nèi)容。微信搜索月活躍用戶(hù)數(shù)量達(dá)到五億以上。搜索業(yè)務(wù)當(dāng)中使用了大量的神經(jīng)網(wǎng)絡(luò)模型,包括自然語(yǔ)言理解、匹配排序等等,這些模型的訓(xùn)練和推理都大量依賴(lài)于NVIDIA GPU,尤其在推理方面,NVIDIA GPU及相應(yīng)的解決方案都滿(mǎn)足了業(yè)務(wù)所需的延遲和吞吐要求。

微信搜索業(yè)務(wù)需要更高效平臺(tái)

微信搜索業(yè)務(wù)由多個(gè)子模塊構(gòu)成,包括查詢(xún)理解、匹配、搜索排序等等。由于搜索的業(yè)務(wù)特點(diǎn),這些任務(wù)對(duì)線(xiàn)上服務(wù)的延遲和吞吐都十分敏感。然而在最近幾年,隨著算力的提升以及算法的創(chuàng)新,很多大型復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型開(kāi)始應(yīng)用在這些任務(wù)上,比如BERT/Transformer等模型。

這些大模型需要的計(jì)算資源和業(yè)務(wù)上的高要求對(duì)推理端的軟硬件都是很大的挑戰(zhàn),必須針對(duì)具體的硬件做極致的優(yōu)化。而且對(duì)于大模型的推理,很多技術(shù)被探索、應(yīng)用在這些場(chǎng)景上以便實(shí)現(xiàn)性能加速、節(jié)約資源,比如模型壓縮、剪枝、低精度計(jì)算等。這些技術(shù)可能會(huì)帶來(lái)精度下降等負(fù)面影響,限制了這些技術(shù)的廣泛應(yīng)用。因此,如何在保證精度效果以及服務(wù)吞吐延遲需求的情況下,高效地對(duì)這些模型進(jìn)行推理成為了業(yè)務(wù)上的巨大挑戰(zhàn)。NVIDIA GPU以及NVIDIA TensorRT給這一場(chǎng)景提供了解決方案。

NVIDIA技術(shù)助力線(xiàn)上大模型推理

為了滿(mǎn)足線(xiàn)上服務(wù)的需求,并且盡可能地節(jié)約成本,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來(lái)進(jìn)行線(xiàn)上大模型的推理。

線(xiàn)上服務(wù)對(duì)于吞吐和延遲有很高的要求,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來(lái)做線(xiàn)上推理服務(wù),利用NVIDIA基于TensorRT開(kāi)源的BERT實(shí)現(xiàn),可以很方便地在FP16精度下實(shí)現(xiàn)滿(mǎn)足需求的線(xiàn)上推理功能。這個(gè)方案在線(xiàn)上取得了很好的效果。

在此基礎(chǔ)上,微信搜索希望進(jìn)一步加快推理速度,節(jié)約計(jì)算資源,以便更好地服務(wù)用戶(hù),節(jié)約成本。低精度推理成為了很好的選擇。NVIDIA GPU從圖靈(Turing)架構(gòu)開(kāi)始就有了INT8 Tensor Core,其計(jì)算吞吐量最高可達(dá)FP16精度的2倍。同時(shí)低精度推理跟其他的優(yōu)化方法也是正交的,可以同時(shí)使用其他技術(shù)比如剪枝、蒸餾等做進(jìn)一步提升。微信搜索線(xiàn)上大量使用NVIDIA T4 GPU,非常適合使用INT8推理。而且TensorRT對(duì)INT8推理也有良好的支持。利用TensorRT的“校準(zhǔn)”(Calibration)功能,能夠方便地將Float精度模型轉(zhuǎn)換為INT8低精度模型,實(shí)現(xiàn)低精度推理。通過(guò)低精度推理,模型的單次推理時(shí)間大大縮短。

通過(guò)“校準(zhǔn)”來(lái)做模型轉(zhuǎn)換已經(jīng)在很多計(jì)算機(jī)視覺(jué)模型上被驗(yàn)證是十分有效的,并且其精度和推理性能都十分優(yōu)秀。然而對(duì)于像BERT一類(lèi)的模型, “校準(zhǔn)” 無(wú)法使得精度和性能都完全令人滿(mǎn)意。因此,騰訊搜索使用了NVIDIA開(kāi)發(fā)的基于PyTorch/TensorFlow的量化工具進(jìn)行基于知識(shí)蒸餾的量化感知訓(xùn)練(Quantization Aware Training)克服精度下降的問(wèn)題。TensorRT對(duì)于導(dǎo)入量化感知訓(xùn)練好的模型進(jìn)行INT8低精度推理有著很好的支持。導(dǎo)入這樣的模型,不僅得到了最佳性能,而且精度沒(méi)有損失,線(xiàn)上服務(wù)只需更換TensorRT構(gòu)建好的引擎即可,極大地簡(jiǎn)化了部署的流程。

通過(guò)這樣的方案,微信搜索中的一些關(guān)鍵任務(wù),比如查詢(xún)理解等自然語(yǔ)言理解任務(wù),可以在精度沒(méi)有損失的情況下,達(dá)到2-10倍的加速效果,平均單句推理時(shí)間達(dá)到了0.1ms。任務(wù)相應(yīng)的計(jì)算資源節(jié)省了約70%。這個(gè)方案大大優(yōu)化了微信搜索業(yè)務(wù)的性能,降低了部署成本。

使用NVIDIA T4 GPU以及TensorRT推理引擎進(jìn)行INT8低精度推理,極大提升了微信搜索的速度,進(jìn)一步提升了用戶(hù)體驗(yàn),節(jié)約了公司成本。

微信搜索的Hui Liu、Raccoon Liu和Dick Zhu表示:“我們已經(jīng)實(shí)現(xiàn)了基于TensorRT和INT8 QAT的模型推理加速,以加速微信搜索的核心任務(wù),包括Query理解和查詢(xún)結(jié)果排序等。我們用GPU+TensorRT的解決方案突破了NLP模型復(fù)雜性的限制,BERT/Transformer可以完全集成到我們的解決方案中。此外,我們利用卓越的性能優(yōu)化方法,節(jié)省了70%的計(jì)算資源?!?/p>

責(zé)任編輯:haq

隨著騰訊微信的發(fā)展,微信搜索也成為其越來(lái)越重要的功能,這個(gè)功能可以用來(lái)搜索微信內(nèi)部的賬號(hào)、信息,以及搜索互聯(lián)網(wǎng)上的內(nèi)容。微信搜索月活躍用戶(hù)數(shù)量達(dá)到五億以上。搜索業(yè)務(wù)當(dāng)中使用了大量的神經(jīng)網(wǎng)絡(luò)模型,包括自然語(yǔ)言理解、匹配排序等等,這些模型的訓(xùn)練和推理都大量依賴(lài)于NVIDIA GPU,尤其在推理方面,NVIDIA GPU及相應(yīng)的解決方案都滿(mǎn)足了業(yè)務(wù)所需的延遲和吞吐要求。

微信搜索業(yè)務(wù)需要更高效平臺(tái)

微信搜索業(yè)務(wù)由多個(gè)子模塊構(gòu)成,包括查詢(xún)理解、匹配、搜索排序等等。由于搜索的業(yè)務(wù)特點(diǎn),這些任務(wù)對(duì)線(xiàn)上服務(wù)的延遲和吞吐都十分敏感。然而在最近幾年,隨著算力的提升以及算法的創(chuàng)新,很多大型復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型開(kāi)始應(yīng)用在這些任務(wù)上,比如BERT/Transformer等模型。 這些大模型需要的計(jì)算資源和業(yè)務(wù)上的高要求對(duì)推理端的軟硬件都是很大的挑戰(zhàn),必須針對(duì)具體的硬件做極致的優(yōu)化。而且對(duì)于大模型的推理,很多技術(shù)被探索、應(yīng)用在這些場(chǎng)景上以便實(shí)現(xiàn)性能加速、節(jié)約資源,比如模型壓縮、剪枝、低精度計(jì)算等。這些技術(shù)可能會(huì)帶來(lái)精度下降等負(fù)面影響,限制了這些技術(shù)的廣泛應(yīng)用。因此,如何在保證精度效果以及服務(wù)吞吐延遲需求的情況下,高效地對(duì)這些模型進(jìn)行推理成為了業(yè)務(wù)上的巨大挑戰(zhàn)。NVIDIA GPU以及NVIDIATensorRT給這一場(chǎng)景提供了解決方案。

NVIDIA技術(shù)助力線(xiàn)上大模型推理

為了滿(mǎn)足線(xiàn)上服務(wù)的需求,并且盡可能地節(jié)約成本,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來(lái)進(jìn)行線(xiàn)上大模型的推理。

線(xiàn)上服務(wù)對(duì)于吞吐和延遲有很高的要求,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來(lái)做線(xiàn)上推理服務(wù),利用NVIDIA基于TensorRT開(kāi)源的BERT實(shí)現(xiàn),可以很方便地在FP16精度下實(shí)現(xiàn)滿(mǎn)足需求的線(xiàn)上推理功能。這個(gè)方案在線(xiàn)上取得了很好的效果。

在此基礎(chǔ)上,微信搜索希望進(jìn)一步加快推理速度,節(jié)約計(jì)算資源,以便更好地服務(wù)用戶(hù),節(jié)約成本。低精度推理成為了很好的選擇。NVIDIA GPU從圖靈(Turing)架構(gòu)開(kāi)始就有了INT8 Tensor Core,其計(jì)算吞吐量最高可達(dá)FP16精度的2倍。同時(shí)低精度推理跟其他的優(yōu)化方法也是正交的,可以同時(shí)使用其他技術(shù)比如剪枝、蒸餾等做進(jìn)一步提升。微信搜索線(xiàn)上大量使用NVIDIA T4 GPU,非常適合使用INT8推理。而且TensorRT對(duì)INT8推理也有良好的支持。利用TensorRT的“校準(zhǔn)”(Calibration)功能,能夠方便地將Float精度模型轉(zhuǎn)換為INT8低精度模型,實(shí)現(xiàn)低精度推理。通過(guò)低精度推理,模型的單次推理時(shí)間大大縮短。

通過(guò)“校準(zhǔn)”來(lái)做模型轉(zhuǎn)換已經(jīng)在很多計(jì)算機(jī)視覺(jué)模型上被驗(yàn)證是十分有效的,并且其精度和推理性能都十分優(yōu)秀。然而對(duì)于像BERT一類(lèi)的模型, “校準(zhǔn)” 無(wú)法使得精度和性能都完全令人滿(mǎn)意。因此,騰訊搜索使用了NVIDIA開(kāi)發(fā)的基于PyTorch/TensorFlow的量化工具進(jìn)行基于知識(shí)蒸餾的量化感知訓(xùn)練(Quantization Aware Training)克服精度下降的問(wèn)題。TensorRT對(duì)于導(dǎo)入量化感知訓(xùn)練好的模型進(jìn)行INT8低精度推理有著很好的支持。導(dǎo)入這樣的模型,不僅得到了最佳性能,而且精度沒(méi)有損失,線(xiàn)上服務(wù)只需更換TensorRT構(gòu)建好的引擎即可,極大地簡(jiǎn)化了部署的流程。

通過(guò)這樣的方案,微信搜索中的一些關(guān)鍵任務(wù),比如查詢(xún)理解等自然語(yǔ)言理解任務(wù),可以在精度沒(méi)有損失的情況下,達(dá)到2-10倍的加速效果,平均單句推理時(shí)間達(dá)到了0.1ms。任務(wù)相應(yīng)的計(jì)算資源節(jié)省了約70%。這個(gè)方案大大優(yōu)化了微信搜索業(yè)務(wù)的性能,降低了部署成本。 使用NVIDIA T4 GPU以及TensorRT推理引擎進(jìn)行INT8低精度推理,極大提升了微信搜索的速度,進(jìn)一步提升了用戶(hù)體驗(yàn),節(jié)約了公司成本。 微信搜索的Hui Liu、Raccoon Liu和Dick Zhu表示:"我們已經(jīng)實(shí)現(xiàn)了基于TensorRT和INT8 QAT的模型推理加速,以加速微信搜索的核心任務(wù),包括Query理解和查詢(xún)結(jié)果排序等。我們用GPU+TensorRT的解決方案突破了NLP模型復(fù)雜性的限制,BERT/Transformer可以完全集成到我們的解決方案中。此外,我們利用卓越的性能優(yōu)化方法,節(jié)省了70%的計(jì)算資源。"

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4820

    瀏覽量

    106301
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5444

    瀏覽量

    108565
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3618

    瀏覽量

    51533

原文標(biāo)題:NVIDIA TensorRT助力騰訊加速微信搜索

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NVIDIA TensorRT LLM 1.0推理框架正式上線(xiàn)

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標(biāo)是突破 NVIDIA 平臺(tái)上的推理性能瓶頸。為實(shí)
    的頭像 發(fā)表于 10-21 11:04 ?405次閱讀

    NVIDIA 利用全新開(kāi)源模型與仿真庫(kù)加速機(jī)器人研發(fā)進(jìn)程

    科研人員及開(kāi)發(fā)者打造功能更強(qiáng)大、適應(yīng)性更強(qiáng)的機(jī)器人。 ? 全新的 NVIDIA Isaac GR00T 開(kāi)源基礎(chǔ)模型將為機(jī)器人賦予接近人類(lèi)的推理能力,使其能夠拆解復(fù)雜指令,并借助已有知識(shí)與常識(shí)執(zhí)行任務(wù)
    的頭像 發(fā)表于 09-30 09:52 ?2436次閱讀
    <b class='flag-5'>NVIDIA</b> 利用全新開(kāi)源<b class='flag-5'>模型</b>與仿真庫(kù)加速機(jī)器人研發(fā)進(jìn)程

    什么是AI模型推理能力

    NVIDIA 的數(shù)據(jù)工廠團(tuán)隊(duì)為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日在 Hugging Face 的物理
    的頭像 發(fā)表于 09-23 15:19 ?597次閱讀

    使用NVIDIA NVLink Fusion技術(shù)提升AI推理性能

    本文詳細(xì)闡述了 NVIDIA NVLink Fusion 如何借助高效可擴(kuò)展的 NVIDIA NVLink scale-up 架構(gòu)技術(shù),滿(mǎn)足日益復(fù)雜的 AI 模型不斷增長(zhǎng)的需求。
    的頭像 發(fā)表于 09-23 14:45 ?386次閱讀
    使用<b class='flag-5'>NVIDIA</b> NVLink Fusion<b class='flag-5'>技術(shù)</b>提升AI<b class='flag-5'>推理</b>性能

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準(zhǔn)確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?1193次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2<b class='flag-5'>推理模型</b>發(fā)布

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實(shí)現(xiàn)150萬(wàn)TPS推理

    ? 自 2016 年推出 NVIDIA DGX 以來(lái),NVIDIA 與 OpenAI 便開(kāi)始共同推動(dòng) AI 技術(shù)的邊界。此次 OpenAI gpt-oss-20b 和 gpt-oss-120b
    的頭像 發(fā)表于 08-15 20:34 ?1717次閱讀
    <b class='flag-5'>NVIDIA</b>從云到邊緣加速OpenAI gpt-oss<b class='flag-5'>模型</b>部署,實(shí)現(xiàn)150萬(wàn)TPS<b class='flag-5'>推理</b>

    模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。然而,大模型推理過(guò)程對(duì)顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來(lái)了挑戰(zhàn)。為了解決這一問(wèn)題,本文將探討大
    發(fā)表于 07-03 19:43

    英偉達(dá)GTC2025亮點(diǎn) NVIDIA推出Cosmos世界基礎(chǔ)模型和物理AI數(shù)據(jù)工具的重大更新

    模型可實(shí)現(xiàn)物理 AI 的預(yù)測(cè)、可控世界生成和推理。 兩款全新Blueprint為機(jī)器人和自動(dòng)駕駛汽車(chē)后訓(xùn)練提供海量物理 AI 合成數(shù)據(jù)生成技術(shù)。 1X、Agility Robotics
    的頭像 發(fā)表于 03-20 19:01 ?1071次閱讀

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Dynamo開(kāi)源庫(kù)加速并擴(kuò)展AI推理模型

    DeepSeek-R1 上的吞吐量提高了 30 倍 NVIDIA 發(fā)布了開(kāi)源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴(kuò)展 AI 工廠中的 AI 推理模型。 作
    的頭像 發(fā)表于 03-20 15:03 ?933次閱讀

    NVIDIA發(fā)布全球首個(gè)開(kāi)源人形機(jī)器人基礎(chǔ)模型Isaac GR00T N1

    NVIDIA 宣布推出一系列全新技術(shù),助力人形機(jī)器人開(kāi)發(fā)。其中包括全球首個(gè)開(kāi)源且完全可定制的基礎(chǔ)模型NVIDIA Isaac GR00T N
    的頭像 發(fā)表于 03-20 14:34 ?1066次閱讀

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計(jì)算和推理軟件與 Oracle 的 AI 基礎(chǔ)設(shè)施以及生成式 AI 服務(wù)首次實(shí)現(xiàn)集成,以幫助全球企業(yè)組織加速創(chuàng)建代理式 AI 應(yīng)用。 ? 此次
    發(fā)表于 03-19 15:24 ?440次閱讀
    Oracle 與 <b class='flag-5'>NVIDIA</b> 合作<b class='flag-5'>助力</b>企業(yè)加速代理式 AI <b class='flag-5'>推理</b>

    NVIDIA 推出開(kāi)放推理 AI 模型系列,助力開(kāi)發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺(tái)

    月 18 日 —— ?NVIDIA 今日發(fā)布具有推理功能的開(kāi)源 Llama Nemotron 模型系列,旨在為開(kāi)發(fā)者和企業(yè)提供業(yè)務(wù)就緒型基礎(chǔ),助力構(gòu)建能夠獨(dú)立工作或以團(tuán)隊(duì)形式完成復(fù)雜
    發(fā)表于 03-19 09:31 ?312次閱讀
    <b class='flag-5'>NVIDIA</b> 推出開(kāi)放<b class='flag-5'>推理</b> AI <b class='flag-5'>模型</b>系列,<b class='flag-5'>助力</b>開(kāi)發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺(tái)

    Qwen大模型助力開(kāi)發(fā)低成本AI推理方案

    阿里巴巴的開(kāi)源Qwen2.5模型近期在AI領(lǐng)域引發(fā)了廣泛關(guān)注。這一大模型的推出,為斯坦福大學(xué)與伯克利大學(xué)的研究人員提供了強(qiáng)大的技術(shù)支持,使他們能夠成功開(kāi)發(fā)出低成本的AI推理模型。 據(jù)悉
    的頭像 發(fā)表于 02-12 09:19 ?911次閱讀

    使用NVIDIA推理平臺(tái)提高AI推理性能

    NVIDIA推理平臺(tái)提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬(wàn)美元。
    的頭像 發(fā)表于 02-08 09:59 ?1114次閱讀
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平臺(tái)提高AI<b class='flag-5'>推理</b>性能

    高效大模型推理綜述

    模型由于其在各種任務(wù)中的出色表現(xiàn)而引起了廣泛的關(guān)注。然而,大模型推理的大量計(jì)算和內(nèi)存需求對(duì)其在資源受限場(chǎng)景的部署提出了挑戰(zhàn)。業(yè)內(nèi)一直在努力開(kāi)發(fā)旨在提高大模型
    的頭像 發(fā)表于 11-15 11:45 ?2091次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述