18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

采用GPU求解大幅提升性能的CFD模型

jf_0T4ID6SG ? 來源:Ansys ? 作者:Steve Defibaugh ? 2022-10-17 09:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

你可以設想一下,如果每項任務都能節(jié)省幾分鐘、幾小時甚至幾天的時間,那一整年下來能節(jié)省多少時間啊。如果任務涉及計算流體動力學(CFD)仿真,且希望減少求解時間,那么Ansys Fluent GPU求解器正是您想要的解決方案。

無論是求解10萬個單元還是1億個單元的模型,傳統(tǒng)的減少仿真時間的方法都是使用大量CPU進行求解。近年來,另一種方法開始受到行業(yè)的關注,那就是使用圖形處理單元,簡稱GPU。這種方法首先是將CPU求解的某些部分交給GPU來處理,從而加速整體求解時間,這種做法被稱為“轉移”到GPU。

早在2014年,Ansys Fluent就采用了這項“轉移”技術,而今年我們則將GPU技術的使用發(fā)揮到全新的高度,在Fluent中推出了原生多GPU(multi-GPU)求解器。本地部署方案能提供GPU上的所有求解器特性,避免CPU和GPU之間因交換數(shù)據(jù)造成的開銷,從而相對于轉移技術能實現(xiàn)更好的提速。

釋放GPU對CFD的全部潛力需要將整個代碼運行在GPU上。

在系列博客的上半部分中,我們重點介紹了大型汽車外氣動仿真的32倍提速案例,不過并非所有用戶的仿真模型能達到如此大的規(guī)模。本文作為系列內(nèi)容的下半部分,將重點介紹GPU針對包含更多物理功能的小規(guī)模模型的優(yōu)勢,如多孔介質和共軛傳熱(CHT)。

各種不同規(guī)模的CFD仿真提速

從51.2萬個單元到700多萬個單元,本文介紹的模型采用GPU求解都能大幅提升性能。而且無需采用最昂貴的服務器級GPU就能大幅提升性能,因為Fluent GPU求解器可以使用您的筆記本或工作站GPU就能顯著縮短求解時間??谡f無憑,請繼續(xù)往下看,了解原生多GPU求解器如何實現(xiàn)提速:

進氣系統(tǒng)提速8.32倍

牽引逆變器提速8.6倍

兩種不同的換熱器設計分別提速15.47倍和11倍

通過多孔過濾器的氣流

汽車進氣系統(tǒng)吸入的氣體通過過濾器清除雜物,讓清潔空氣進入引擎。這個仿真涉及710萬個單元,過濾器模型為多孔介質,粘滯阻力為1e+8m-2,慣性阻力為2,500m-1??諝饬魅脒M氣系統(tǒng)的質量流率為0.08kg/s。

用一個NVIDIA A100 GPU求解后,優(yōu)化進氣系統(tǒng)可實現(xiàn)8.32倍的提速。

我們采用四種不同的硬件配置求解該模型,三種配置采用Intel Xeon Gold 6242核心,一種配置采用一個NVIDIA A100 Tensor Core GPU。

使用單個NVIDIA A100 GPU相對于采用32個Intel Xeon Gold核心求解而言,能提速8.3倍。

73f90214-4d6d-11ed-a3b6-dac502259ad0.png

使用單個NVIDIA A100 GPU仿真通過多孔介質的氣流相對于32個Intel Xeon Gold核心而言,能實現(xiàn)8.3倍的提速

使用共軛傳熱建模(CHT)進行熱管理

在許多工業(yè)應用中,考慮到流體流動時造成的熱效應至關重要。為準確捕獲系統(tǒng)的熱行為,流體的傳熱與相鄰金屬的熱傳導耦合往往非常重要。我們的原生GPU求解器針對這種耦合CHT問題展示出了強大的提速特性。

以下給出三種涉及CHT的不同熱仿真,一個為400萬個單元的水冷式牽引逆變器,一個為140萬個單元的百葉窗翅片換熱器,還有一個為512,000個單元的立式散熱器。

水冷式牽引逆變器

涉及CHT的牽引逆變器仿真采用一個NVIDIA A100 GPU求解,可實現(xiàn)8.6倍的提速。

牽引逆變器從高壓電池獲得直流電(DC),并將其轉為交流電(AC)發(fā)送給電機。熱管理對牽引逆變器確保安全性和長期使用壽命至關重要。

以上所示模型為400萬個單元的水冷式牽引逆變器,其具有4個絕緣柵雙極晶體管IGBT),熱負載為400 W。25℃的水以0.5 kg/s的速度流過外殼實現(xiàn)制冷,并使用對流邊界條件對周圍空氣的熱消耗進行建模。

采用一個NVIDIA A100 GPU求解問題,相對于32個Intel Xeon Gold 6242核心而言,可提速8.6倍。

百葉窗翅片換熱器

換熱器模型通過百葉窗翅片換熱器實現(xiàn)強制對流。這個待求解的問題涉及20℃的空氣以4 m/s的速度通過鋁制百葉窗翅片,以實現(xiàn)銅管制冷。

為獲得基準,我們在8個Intel Xeon Gold 6242核心上運行了140萬個單元的模型。在一個NVIDIA A100 GPU上運行完全相同的模型,可實現(xiàn)15.5倍的提速。

百葉窗翅片換熱器的溫度分布在一個NVIDIA A100上求解速度快15.47倍。

77f60b28-4d6d-11ed-a3b6-dac502259ad0.png

對百葉窗翅片換熱器而言,單GPU求解可實現(xiàn)15.47倍的提速

立式散熱器

最后一個問題涉及一個自由對流五翅片鋁制散熱器,基座保持恒溫76.85℃,周邊空氣環(huán)境溫度為16.85℃。

使用安裝有一個NVIDIA Quadro RTX 5000 GPU的一臺筆記本電腦求解包含512,000個單元的外殼,相對于采用六核Intel Core i7-11850H的筆記本電腦而言,可實現(xiàn)11倍的提速。

即便只采用一個NVIDIA Quadro RTX 5000筆記本顯卡GPU,使用Fluent中的原生多GPU求解器也能大幅縮短求解時間。如果采用類似的工作站圖形卡,還能進一步提高性能。

采用一個NVIDIA Quadro RTX 5000 GPU進行求解,512,000個單元的散熱器仿真能實現(xiàn)11倍的提速。

通過GPU實現(xiàn)CFD仿真變革

Fluent用戶現(xiàn)在能在只有一個GPU的筆記本或工作站上獲得強大功能和靈活性,當然也可以擴展至多GPU服務器上。利用您已有的硬件加速CFD仿真,獲得的提速超過您的想象。

Fluent中的原生多GPU求解器能運行在2016年之后推出的任何NVIDIA卡上,安裝的驅動程序版本不低于11.0或更新版本。

Ansys在GPU技術運用于仿真領域一直是領軍者,憑借新型求解器技術,將我們的技術水平提升到新的高度。原生GPU求解器中的所有特性都采用與Fluent CPU求解器相同的離散和數(shù)值方法,能在更短的時間內(nèi)為用戶提供他們所期待的準確結果。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5050

    瀏覽量

    134015
  • 服務器
    +關注

    關注

    13

    文章

    10013

    瀏覽量

    90364
  • CFD
    CFD
    +關注

    關注

    1

    文章

    164

    瀏覽量

    19379
  • 求解器
    +關注

    關注

    0

    文章

    84

    瀏覽量

    4885

原文標題:Ansys Fluent:全力釋放GPU的無限潛力(下)

文章出處:【微信號:西莫電機論壇,微信公眾號:西莫電機論壇】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    ANSA中CFD網(wǎng)格細化方法

    在上一篇文章中介紹了CFD網(wǎng)格細化方法之Size Field功能,在本篇文章中我們將繼續(xù)介紹其他CFD網(wǎng)格細化方法。
    的頭像 發(fā)表于 08-06 15:07 ?2747次閱讀
    ANSA中<b class='flag-5'>CFD</b>網(wǎng)格細化方法

    如何在Ray分布式計算框架下集成NVIDIA Nsight Systems進行GPU性能分析

    在大語言模型的強化學習訓練過程中,GPU 性能優(yōu)化至關重要。隨著模型規(guī)模不斷擴大,如何高效地分析和優(yōu)化 GPU
    的頭像 發(fā)表于 07-23 10:34 ?1811次閱讀
    如何在Ray分布式計算框架下集成NVIDIA Nsight Systems進行<b class='flag-5'>GPU</b><b class='flag-5'>性能</b>分析

    為什么無法在GPU上使用INT8 和 INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉換為 int 4 和 int8,并在 GPU 上使用 OpenVINO? 運行推理。 沒有可用的輸出。
    發(fā)表于 06-23 07:11

    摩爾線程GPU率先支持Qwen3全系列模型

    近日,阿里云正式發(fā)布Qwen3系列的8款開源混合推理模型。摩爾線程團隊在模型發(fā)布當天,率先完成了Qwen3全系列模型在全功能GPU上的高效支持。這一成果充分展現(xiàn)了MUSA架構及全功能
    的頭像 發(fā)表于 05-07 15:24 ?760次閱讀

    提升AI訓練性能GPU資源優(yōu)化的12個實戰(zhàn)技巧

    在人工智能與機器學習技術迅速發(fā)展的背景下,GPU計算資源的高效利用已成為關鍵技術指標。優(yōu)化的GPU資源分配不僅能顯著提升模型訓練速度,還能實現(xiàn)計算成本的有效控制。根據(jù)AI基礎設施聯(lián)盟2
    的頭像 發(fā)表于 05-06 11:17 ?1003次閱讀
    <b class='flag-5'>提升</b>AI訓練<b class='flag-5'>性能</b>:<b class='flag-5'>GPU</b>資源優(yōu)化的12個實戰(zhàn)技巧

    無法在GPU上運行ONNX模型的Benchmark_app怎么解決?

    在 CPU 和 GPU 上運行OpenVINO? 2023.0 Benchmark_app推斷的 ONNX 模型。 在 CPU 上推理成功,但在 GPU 上失敗。
    發(fā)表于 03-06 08:02

    英國政府計劃大幅提升AI算力

    近日,英國首相斯塔默宣布了一項雄心勃勃的計劃,承諾到2030年,英國政府將采購多達10萬塊圖形處理器(GPU),以大幅提升英國的AI算力水平。 據(jù)悉,這一舉措旨在將英國主權AI算力增加20倍,從而
    的頭像 發(fā)表于 01-14 14:18 ?628次閱讀

    借助NVIDIA GPU提升魯班系統(tǒng)CAE軟件計算效率

    本案例中魯班系統(tǒng)高性能 CAE 軟件利用 NVIDIA 高性能 GPU,實現(xiàn)復雜產(chǎn)品的快速仿真,加速產(chǎn)品開發(fā)和設計迭代,縮短開發(fā)周期,提升產(chǎn)品競爭力。
    的頭像 發(fā)表于 12-27 16:24 ?1034次閱讀

    GPU是如何訓練AI大模型

    在AI模型的訓練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數(shù)等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何訓練AI大模型的。
    的頭像 發(fā)表于 12-19 17:54 ?1066次閱讀

    《CST Studio Suite 2024 GPU加速計算指南》

    許可證模型的加速令牌或SIMULIA統(tǒng)一許可證模型的SimUnit令牌或積分授權。 4. GPU計算的啟用 - 交互式模擬:通過加速對話框啟用,打開求解器對話框,點擊“加速”按鈕,打
    發(fā)表于 12-16 14:25

    《算力芯片 高性能 CPUGPUNPU 微架構分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    對卷積核優(yōu)化的思考。 GPU的存儲體系采用了獨特的倒金字塔結構,在我看來這是其計算性能的關鍵。大容量寄存器設計破解了傳統(tǒng)馮諾依曼架構的內(nèi)存瓶頸,合并訪存機制巧妙解決了內(nèi)存帶寬限制。NVIDIA
    發(fā)表于 11-24 17:12

    PyTorch GPU 加速訓練模型方法

    在深度學習領域,GPU加速訓練模型已經(jīng)成為提高訓練效率和縮短訓練時間的重要手段。PyTorch作為一個流行的深度學習框架,提供了豐富的工具和方法來利用GPU進行模型訓練。 1. 了解
    的頭像 發(fā)表于 11-05 17:43 ?1987次閱讀

    GPU服務器AI網(wǎng)絡架構設計

    眾所周知,在大型模型訓練中,通常采用每臺服務器配備多個GPU的集群架構。在上一篇文章《高性能GPU服務器AI網(wǎng)絡架構(上篇)》中,我們對
    的頭像 發(fā)表于 11-05 16:20 ?1791次閱讀
    <b class='flag-5'>GPU</b>服務器AI網(wǎng)絡架構設計

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構分析」閱讀體驗】--了解算力芯片GPU

    從而充分利用 GPU的強大計算能力。在CUDA編程模型中,GPU的計算資源被組織為線期線程塊和線程網(wǎng)格3級。線程是基本的執(zhí)行單元,線程塊是包含多個線程的組,線程網(wǎng)格包含多個線程塊的組。線程塊和線程網(wǎng)格
    發(fā)表于 11-03 12:55

    如何提高GPU性能

    在當今這個視覺至上的時代,GPU(圖形處理單元)的性能對于游戲玩家、圖形設計師、視頻編輯者以及任何需要進行高強度圖形處理的用戶來說至關重要。GPU不僅是游戲和多媒體應用的心臟,它還在科學計算、深度
    的頭像 發(fā)表于 10-27 11:21 ?3293次閱讀