18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何顯著提升Vision Transformer的訓練效率

深度學習自然語言處理 ? 來源:GiantPandaCV ? 作者:GiantPandaCV ? 2022-05-24 10:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近期MetaAI發(fā)布了一篇博客,關于如何顯著提升Vision Transformer的訓練效率。

原文:[Significantly faster Vision Transformer training]

鏈接:https://ai.facebook.com/blog/significantly-faster-vision-transformer-training

What the research is

Vision Transformer模型幾乎火遍計算機視覺各個領域,其性能隨著參數(shù)增加和更久的訓練過程而得到提升。隨著模型越來越大,超過了萬億次浮點運算的規(guī)模,該領域達到了瓶頸:訓練一個模型往往要一個月,需要幾百上千個GPU,導致大部分人無法接觸到大規(guī)模ViT模型,并進而增加了對加速器的需求。

為了降低門檻,讓更多人能夠應用ViT,我們開發(fā)一系列方法來加速整個訓練。我們基于MetaAI的圖像分類模型庫PyCls實現(xiàn)了一系列優(yōu)化,這些優(yōu)化極大的提升了模型訓練過程的吞吐量:

d3d58a30-da96-11ec-ba43-dac502259ad0.png

How it works ?

我們首先對代碼庫進行分析,以定位訓練效率低下的原因,最后關注點落在計算類型上:大部分模型都是用FP32進行訓練,如果使用FP16訓練的話,可以降低顯存占用,并提高模型訓練速度,但這一做法經(jīng)常會導致準確率下降

所以我們選了一個折中的方法:自動混合精度。在該方法下,我們用half類型進行計算,以加快訓練,減少顯存使用。并以fp32類型存儲參數(shù),以保證模型準確率。其中我們沒有手動將網(wǎng)絡各部分轉換成half類型,而是應用AMP各種模式(如O1, O2, O3),以尋找一個既能提升速度又不影響精度的平衡點。

FSDP

為了讓訓練更加高效,我們應用了FSDP訓練策略,他能夠將參數(shù),梯度,優(yōu)化器狀態(tài)分片到各GPU上。在FSDP的幫助下,我們可以用更少的GPU資源構建更大的模型。

FSDP策略可以參考 [數(shù)據(jù)并行Deep-dive: 從DP 到 Fully Sharded Data Parallel (FSDP)完全分片數(shù)據(jù)并行] 鏈接:https://zhuanlan.zhihu.com/p/485208899

MTA Optimizer

前向計算完畢后,優(yōu)化器需要對各個參數(shù)進行修改。而當參數(shù)比較多的情況下,對應啟動的Optimizer Kernel就會變得很多,通常這些Kernel都比較小,計算負擔不大,啟動Kernel的開銷反而占了大頭。

ContiguousParams中,它將模型參數(shù)放置到一塊連續(xù)的顯存中進行計算,這樣就能減少優(yōu)化器這部分的時間。下圖是Resnet50+SGD是否應用ContiguousParams的比較,可以看到OptimizerStep這部分時間顯著減少了。

d4089a74-da96-11ec-ba43-dac502259ad0.png

而NVIDIA的Apex庫的做法則是在底層重新實現(xiàn)了一系列MultiTensorOptimizer,如Adam, Adagrad等等。

Apex這種方法比較硬核,普通用戶如果想要自己自定義優(yōu)化器并應用Multi Tensor的優(yōu)化,就必須改動底層CUDA代碼。而最近PyTorch也在計劃提供了一系列foreach接口[Replace optimizers in torch.optim with the ones from torch.optim._multi_tensor] 鏈接:https://github.com/pytorch/pytorch/pull/49039,讓用戶只需要在Python層即可享受到優(yōu)化,對應的MultiTensor版Momentum優(yōu)化器代碼如下所示:

torch._foreach_mul_(bufs,momentum)
torch._foreach_add_(bufs,grads,alpha=1-dampening)

Pooled Classifier

原版的ViT是額外加了一個分類token,來輸出最后的分類結果。而這里采用平均池化 如:https://github.com/facebookresearch/pycls/blob/main/pycls/core/config.py#L205 處理最后的分類

Batch Second Input Tensor Layout

這里的數(shù)據(jù)格式與以往不同,將batch維度放在第二維,并在調用nn.MultiheadAttention的時候,設置batch_first=False,以減少不必要的轉置

ifself.batch_firstandis_batched:
returnattn_output.transpose(1,0),attn_output_weights
else:
returnattn_output,attn_output_weights

總感覺這個實現(xiàn)怪怪的

其他優(yōu)化

我們在采取560大小的batchsize下,達到了1.51倍的加速比,進一步的我們將batchsize設置為384,并將圖片大小增大到256,達到了1.86倍加速比。在全FP16運算下,能夠達到2.18倍加速比,盡管這偶爾會降低準確率(在實驗中,準確率降低不到10%)。

d451532c-da96-11ec-ba43-dac502259ad0.png

使用上述優(yōu)化,我們將Imagenet1K數(shù)據(jù)集每epoch訓練時間從0.65小時降低到0.43小時

d4786106-da96-11ec-ba43-dac502259ad0.png

我們還研究了不同GPU配置對訓練速度的影響,在不同配置下我們都實現(xiàn)了比DDP baseline更高的吞吐量。隨著GPU增加,吞吐量會因為設備之間的通信開銷略微下降。然而即使在64塊GPU下,我們仍然比DDP基線快1.83倍

d4c4af7a-da96-11ec-ba43-dac502259ad0.png

文中鏈接

PyCls :https://github.com/facebookresearch/pycls

ContiguousParams:https://github.com/PhilJd/contiguous_pytorch_params

Adam:https://github.com/NVIDIA/apex/blob/master/csrc/multi_tensor_adam.cu

審核編輯 :李倩



聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 加速器
    +關注

    關注

    2

    文章

    833

    瀏覽量

    39631
  • Vision
    +關注

    關注

    1

    文章

    203

    瀏覽量

    19236

原文標題:如何更快地訓練Vision Transformer

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    借助NVIDIA Megatron-Core大模型訓練框架提高顯存使用效率

    策略;理解這些策略對顯存的影響,才能更好地規(guī)劃訓練超參數(shù),在不 OOM (out of memory) 的情況下盡可能提升硬件使用效率
    的頭像 發(fā)表于 10-21 10:55 ?425次閱讀
    借助NVIDIA Megatron-Core大模型<b class='flag-5'>訓練</b>框架提高顯存使用<b class='flag-5'>效率</b>

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現(xiàn)深度學習AI芯片的創(chuàng)新方法與架構

    ,顯著提高Transformer 模型的訓練速度。 為了優(yōu)化計算和存儲效率,Transformer 引擎使用張量統(tǒng)計得出的擴展因子,動態(tài)的將
    發(fā)表于 09-12 17:30

    同步整流MOSFET的設計要點與效率提升技巧

    在現(xiàn)代高效率電源系統(tǒng)中,同步整流技術已成為主流選擇,尤其是在DC-DC變換器、USB快充適配器、服務器電源和車載電源等場景中。同步整流相比傳統(tǒng)的肖特基二極管整流,能夠顯著降低導通損耗,提高轉換效率
    的頭像 發(fā)表于 07-03 09:42 ?495次閱讀
    同步整流MOSFET的設計要點與<b class='flag-5'>效率</b><b class='flag-5'>提升</b>技巧

    快手上線鴻蒙應用高性能解決方案:數(shù)據(jù)反序列化性能提升90%

    “class-transformer”的使用代碼即可實現(xiàn)性能優(yōu)化,既保持了對原有開發(fā)模式的兼容性,又大幅提升了運行效率,整體改造過程無侵入、低成本、低風險,適用于已有項目的快速集成與上線。 在實際應用中
    發(fā)表于 05-15 10:01

    摩爾線程GPU原生FP8計算助力AI訓練

    并行訓練和推理,顯著提升訓練效率與穩(wěn)定性。摩爾線程是國內率先原生支持FP8計算精度的國產(chǎn)GPU企業(yè),此次開源不僅為AI
    的頭像 發(fā)表于 03-17 17:05 ?1058次閱讀
    摩爾線程GPU原生FP8計算助力AI<b class='flag-5'>訓練</b>

    優(yōu)化汽車點焊生產(chǎn)線,提升制造效率與質量

    在當前的制造業(yè)環(huán)境中,提高生產(chǎn)效率和產(chǎn)品質量是企業(yè)追求的核心目標之一。汽車點焊作為汽車制造過程中的關鍵環(huán)節(jié),其效率和質量直接影響到整車的性能和安全。因此,優(yōu)化汽車點焊生產(chǎn)線,不僅能夠顯著提升
    的頭像 發(fā)表于 02-23 11:14 ?622次閱讀

    回饋式交流電子負載:測試效率與節(jié)能效果的雙重提升

    ,通過創(chuàng)新的能量回饋機制,實現(xiàn)了測試效率與節(jié)能效果的雙重提升,為電力電子測試領域帶來了革命性變革。 一、傳統(tǒng)測試方法的局限性 傳統(tǒng)電阻負載測試方法采用耗能式工作原理,將電能轉化為熱能消耗。這種測試方式
    發(fā)表于 02-07 11:13

    地平線ViG基于視覺Mamba的通用視覺主干網(wǎng)絡

    Vision Mamba的成功預示著將視覺表征學習轉換為線性復雜度視覺序列表征學習具有巨大的潛力。盡管以Vision Mamba為代表的線性視覺序列表征學習結構在高清圖像上展示了顯著效率
    的頭像 發(fā)表于 01-08 09:33 ?828次閱讀
    地平線ViG基于視覺Mamba的通用視覺主干網(wǎng)絡

    港大提出SparX:強化Vision Mamba和Transformer的稀疏跳躍連接機制

    本文分享香港大學計算和數(shù)據(jù)科學學院俞益洲教授及其研究團隊發(fā)表于 AAAI 2025 的論文——SparX,一種強化 Vision Mamba 和 Transformer 的稀疏跳躍連接機制,性能強大
    的頭像 發(fā)表于 01-03 09:28 ?1521次閱讀
    港大提出SparX:強化<b class='flag-5'>Vision</b> Mamba和<b class='flag-5'>Transformer</b>的稀疏跳躍連接機制

    RFID技術賦能民兵裝備管理,倉儲效率顯著提升

    民兵裝備倉儲管理平臺的三層架構通過緊密合作,實現(xiàn)了裝備物資的高效管理和安全儲存。這一架構不僅顯著提高了管理效率,還有效降低了運營成本,為我國民兵部隊提供了堅強可靠的后勤保障。
    的頭像 發(fā)表于 12-23 14:29 ?706次閱讀
    RFID技術賦能民兵裝備管理,倉儲<b class='flag-5'>效率</b><b class='flag-5'>顯著</b><b class='flag-5'>提升</b>

    微軟預覽版Copilot Vision AI功能上線

    微軟公司近日宣布,將面向美國地區(qū)的Copilot Pro用戶推出預覽版的Copilot Vision AI功能。這一創(chuàng)新功能旨在通過人工智能技術,進一步提升用戶的網(wǎng)頁瀏覽體驗。 Copilot
    的頭像 發(fā)表于 12-09 14:38 ?826次閱讀

    Transformer是機器人技術的基礎嗎

    生成式預訓練Transformer(GPT)被吹捧為將徹底改變機器人技術。但實際應用中,GPT需要龐大且昂貴的計算資源、冗長的訓練時間以及(通常)非機載無線控制,諸多限制之下,GPT技術真的
    的頭像 發(fā)表于 12-05 10:54 ?863次閱讀
    <b class='flag-5'>Transformer</b>是機器人技術的基礎嗎

    自動駕駛中一直說的BEV+Transformer到底是個啥?

    感知、理解和預測方面表現(xiàn)得更為強大,徹底終結了2D直視圖+CNN時代。BEV+Transformer通過鳥瞰視角與Transformer模型的結合,顯著提升了自動駕駛
    的頭像 發(fā)表于 11-07 11:19 ?1901次閱讀
    自動駕駛中一直說的BEV+<b class='flag-5'>Transformer</b>到底是個啥?

    提升效率:RTC時鐘實用設置

    今天來給大家講解的是RTC時鐘實用性,提升絕對的效率。
    的頭像 發(fā)表于 11-04 16:35 ?1569次閱讀
    <b class='flag-5'>提升</b><b class='flag-5'>效率</b>:RTC時鐘實用設置

    NVIDIA助力麗蟾科技打造AI訓練與推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺集成 NVIDIA AI Enterprise,為企業(yè)和科研機構提供了一套高效、靈活的 AI 訓練與推理加速解決方案。無論是在復雜的 AI 開發(fā)任務中,還是在高并發(fā)推理場景下,都能夠確保項目的順利進行,并顯著
    的頭像 發(fā)表于 10-27 10:03 ?1491次閱讀
    NVIDIA助力麗蟾科技打造AI<b class='flag-5'>訓練</b>與推理加速解決方案