18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Arm技術(shù)助力Google Axion處理器加速AI工作負(fù)載推理

Arm社區(qū) ? 來(lái)源:Arm社區(qū) ? 2025-02-14 14:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Arm 基礎(chǔ)設(shè)施事業(yè)部高級(jí)產(chǎn)品經(jīng)理 Ashok Bhat

由 Arm Neoverse V2 平臺(tái)賦能的 Google Axion 處理器已在 Google Cloud 上正式上線,其中,C4A 是首款基于 Axion 的云虛擬機(jī),為基于 CPU人工智能 (AI) 推理和通用云工作負(fù)載實(shí)現(xiàn)了顯著的性能飛躍。

Axion CPU 延續(xù)了 Google Cloud 的定制芯片計(jì)劃,旨在提高工作負(fù)載性能和能效,標(biāo)志著在重塑 AI 云計(jì)算格局方向上的重大進(jìn)步。Google 選擇 Arm Neoverse 平臺(tái)是因?yàn)樗邆涓咝阅堋⒏吣苄Ш蛣?chuàng)新靈活性,而且有著強(qiáng)大的軟件生態(tài)系統(tǒng)和廣泛的行業(yè)應(yīng)用,可確保與現(xiàn)有應(yīng)用的輕松集成。

Neoverse V2 平臺(tái)引入了新的硬件擴(kuò)展,例如 SVE/SVE2、BF16 和 i8mm,與上代 Neoverse N1 相比,顯著增強(qiáng)了機(jī)器學(xué)習(xí)性能。這些擴(kuò)展增強(qiáng)了向量處理、BFloat16 運(yùn)算和整數(shù)矩陣乘法,使得基于 Neoverse V2 的 CPU 每周期執(zhí)行的 MAC 運(yùn)算次數(shù)比 N1 提高最多四倍。

從生成式 AI 到計(jì)算機(jī)視覺(jué):加快 AI 工作負(fù)載推理速度并提升性能

立足于開(kāi)源為原則的 AI 具備眾多領(lǐng)先的開(kāi)源項(xiàng)目。近年來(lái),Arm 一直與合作伙伴開(kāi)展密切合作,以提高這些開(kāi)源項(xiàng)目的性能。在許多情況下,我們會(huì)利用 Arm Kleidi 技術(shù)來(lái)提高 Neoverse 平臺(tái)上的性能,Kleidi 技術(shù)可通過(guò) Arm Compute Library 和 KleidiAI 庫(kù)訪問(wèn)。

大語(yǔ)言模型

由 Meta 開(kāi)發(fā)的 Llama 模型包含一系列先進(jìn)的大語(yǔ)言模型 (LLM),專(zhuān)為各種生成任務(wù)而設(shè)計(jì),模型大小從 10 億到 4,050 億個(gè)參數(shù)不等。這些模型針對(duì)性能進(jìn)行了優(yōu)化,并可針對(duì)特定應(yīng)用進(jìn)行微調(diào),因而在自然語(yǔ)言處理任務(wù)中用途廣泛。

Llama.cpp 是一個(gè) C++ 實(shí)現(xiàn)方案,可以在不同的硬件平臺(tái)上實(shí)現(xiàn)這些模型的高效推理。它支持 Q4_0 量化方案,可將模型權(quán)重減少為 4 位整數(shù)。

為了展示基于 Arm 架構(gòu)的服務(wù)器 CPU 在 LLM 推理方面的能力,Arm 軟件團(tuán)隊(duì)和 Arm 合作伙伴對(duì) llama.cpp 中的 int4 內(nèi)核進(jìn)行了優(yōu)化,以利用這些新的指令。具體來(lái)說(shuō),我們?cè)黾恿巳N新的量化格式:為僅支持 Neon 的設(shè)備添加了 Q4_0_4_4,為支持 SVE/SVE2 和 i8mm 的設(shè)備添加了 Q4_0_4_8,為支持 SVE 256 位的設(shè)備添加了 Q4_0_8_8。

因此,與當(dāng)前的 x86 架構(gòu)實(shí)例相比,基于 Axion 的虛擬機(jī)在提示詞處理和詞元 (token) 生成方面的性能高出兩倍。

bc197f22-ea89-11ef-9310-92fbcf53809c.png

我們?cè)谒袑?shí)例上運(yùn)行了 Llama 3.1 8B 模型,并對(duì)每個(gè)實(shí)例使用了推薦的 4 位量化方案。Axion 的數(shù)據(jù)是在 c4a-standard-48 實(shí)例上使用 Q4_0_4_8 量化方案生成的,而 Ampere Altra 的數(shù)據(jù)是在 t2a-standard-48 實(shí)例上使用 Q4_0_4_4 生成的。x86 架構(gòu)的數(shù)據(jù)是在 c4-standard-48 (Intel Emerald Rapids) 和 c3d-standard-60 (AMD Genoa) 上使用 Q4_0 量化格式生成的。在所有實(shí)例中,線程數(shù)始終設(shè)置為 48。

BERT

在 C4A 虛擬機(jī)上運(yùn)行 BERT 取得了顯著的速度提升,大幅減少了延遲并提高了吞吐量。此例中,我們?cè)诟鞣N Google Cloud 平臺(tái)實(shí)例上以單流模式(批量大小為 1)使用 PyTorch 2.2.1 運(yùn)行 MLPerf BERT 模型,并測(cè)量第 90 百分位的延遲。

bc32ea16-ea89-11ef-9310-92fbcf53809c.png

ResNet-50

此外,Google Axion 的功能不僅限于 LLM,還可應(yīng)用于圖像識(shí)別模型,例如 ResNet-50 就能受益于此硬件的先進(jìn)特性。BF16 和 i8mm 指令集成后,實(shí)現(xiàn)了更高的精度和更快的訓(xùn)練速度,展現(xiàn)了 Axion 相較基于 x86 架構(gòu)實(shí)例的性能優(yōu)勢(shì)。

bc4ed000-ea89-11ef-9310-92fbcf53809c.png

此例中,我們?cè)诟鞣N Google Cloud 平臺(tái)實(shí)例上以單流模式(批量大小為 1)使用 PyTorch 2.2.1 運(yùn)行 MLPerf ResNet-50 PyTorch 模型。

XGBoost

XGBoost 是一個(gè)領(lǐng)先的機(jī)器學(xué)習(xí)算法庫(kù),用于解決回歸、分類(lèi)和排序問(wèn)題,與 Google Cloud 上類(lèi)似的 x86 架構(gòu)實(shí)例相比,在 Axion 上訓(xùn)練和預(yù)測(cè)所需的時(shí)間減少了 24% 到 48%。

bc669eb0-ea89-11ef-9310-92fbcf53809c.png

bc7eafaa-ea89-11ef-9310-92fbcf53809c.png

結(jié)論

從上述結(jié)果,可以發(fā)現(xiàn)基于 Axion 的虛擬機(jī)在性能方面超越了上一代基于 Neoverse N1 的虛擬機(jī)和 Google Cloud 上其他的 x86 架構(gòu)替代方案。Google Cloud C4A 虛擬機(jī)能夠處理從 XGBoost 等傳統(tǒng)機(jī)器學(xué)習(xí)任務(wù)到 Llama 等生成式 AI 應(yīng)用的各類(lèi)工作負(fù)載,是AI 推理的理想之選。

Arm 資源:助力云遷移

為了提升 Google Axion 的使用體驗(yàn),Arm 匯集了各種資源:

[1] 通過(guò) Arm Learning Paths 遷移到 Axion:依照詳細(xì)的指南和最佳實(shí)踐,簡(jiǎn)化向 Axion 實(shí)例的遷移。

[2] Arm Software Ecosystem Dashboard:獲取有關(guān) Arm 的最新軟件支持信息。

[3] Arm 開(kāi)發(fā)者中心:無(wú)論是剛接觸 Arm 平臺(tái),還是正在尋找開(kāi)發(fā)高性能軟件解決方案的資源,Arm 開(kāi)發(fā)者中心應(yīng)有盡有,可以幫助開(kāi)發(fā)者構(gòu)建更卓越的軟件,為數(shù)十億設(shè)備提供豐富的體驗(yàn)。歡迎開(kāi)發(fā)者在 Arm 不斷壯大的全球開(kāi)發(fā)者社區(qū)中,下載內(nèi)容、交流學(xué)習(xí)和討論。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • ARM
    ARM
    +關(guān)注

    關(guān)注

    135

    文章

    9462

    瀏覽量

    386415
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7726

    瀏覽量

    92361
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37118

    瀏覽量

    291162
  • Neoverse
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    4908

原文標(biāo)題:基于 Arm Neoverse 的 Google Axion 以更高性能加速 AI 工作負(fù)載推理

文章出處:【微信號(hào):Arm社區(qū),微信公眾號(hào):Arm社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    瑞薩電子RZ/V系列微處理器助力邊緣AI開(kāi)發(fā)

    邊緣AI越來(lái)越多地應(yīng)用于諸如工業(yè)攝像頭和公共設(shè)施攝像頭等嵌入式設(shè)備中,并要求嵌入式產(chǎn)品小型化且具有低功耗。瑞薩電子RZ/V系列微處理器(MPU)內(nèi)置AI加速器,即動(dòng)態(tài)可重構(gòu)
    的頭像 發(fā)表于 09-23 10:31 ?364次閱讀
    瑞薩電子RZ/V系列微<b class='flag-5'>處理器</b><b class='flag-5'>助力</b>邊緣<b class='flag-5'>AI</b>開(kāi)發(fā)

    華為亮相2025金融AI推理應(yīng)用落地與發(fā)展論壇

    創(chuàng)新技術(shù)——UCM推理記憶數(shù)據(jù)管理,旨在推動(dòng)AI推理體驗(yàn)升級(jí),提升推理性價(jià)比,
    的頭像 發(fā)表于 08-15 09:45 ?740次閱讀

    Arm KleidiAI與XNNPack集成實(shí)現(xiàn)AI性能提升

    Arm KleidiAI 首次集成到 XNNPack 已過(guò)去整整一年。KleidiAI 是一款高度優(yōu)化的軟件庫(kù),旨在加速 Arm CPU 上的人工智能 (AI)
    的頭像 發(fā)表于 08-08 15:19 ?2440次閱讀
    <b class='flag-5'>Arm</b> KleidiAI與XNNPack集成實(shí)現(xiàn)<b class='flag-5'>AI</b>性能提升

    研華科技推出緊湊型邊緣AI推理系統(tǒng)AIR-120

    研華科技隆重宣布,推出緊湊型邊緣AI推理系統(tǒng)——AIR-120。該系統(tǒng)搭載英特爾凌動(dòng)x7433RE(Amston Lake)處理器、酷睿i3-N305處理器、N97(Alder Lak
    的頭像 發(fā)表于 07-17 17:16 ?745次閱讀

    信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    DeepSeek-R1:強(qiáng)大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司開(kāi)發(fā)的新一代AI大模型。其核心優(yōu)勢(shì)在于強(qiáng)大的
    發(fā)表于 07-16 15:29

    Arm Kleidi助力輕松加速AI工作負(fù)載

    正如 Arm 工程部軟件高級(jí)副總裁 Mark Hambleton 在《2025 年芯片新思維》報(bào)告中所說(shuō):人工智能 (AI) 的未來(lái)發(fā)展離不開(kāi)軟硬件的協(xié)同。
    的頭像 發(fā)表于 06-19 10:45 ?753次閱讀

    解讀基于Arm Neoverse V2平臺(tái)的Google Axion處理器

    云計(jì)算需求在人工智能 (AI) 時(shí)代的爆發(fā)式增長(zhǎng),推動(dòng)了開(kāi)發(fā)者尋求性能優(yōu)化且高能效的解決方案,以降低總體擁有成本 (TCO)。Arm 致力于通過(guò) Arm Neoverse 平臺(tái)滿足不斷變化的需求,Neoverse 也正因此迅速成
    的頭像 發(fā)表于 04-21 13:47 ?758次閱讀

    谷歌第七代TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命

    谷歌第七代TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命 Google 發(fā)布了 Ironwood,這是其第七代張量處理單元 (TPU),專(zhuān)為
    的頭像 發(fā)表于 04-12 11:10 ?2436次閱讀
    谷歌第七代TPU Ironwood深度解讀:<b class='flag-5'>AI</b><b class='flag-5'>推理</b>時(shí)代的硬件革命

    Banana Pi 發(fā)布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計(jì)算與嵌入式開(kāi)發(fā)

    架構(gòu),賦能多場(chǎng)景應(yīng)用 BPI-AI2N 采用 RZ/V2N 處理器,集成 4 核 Arm? Cortex?-A55(1.8GHz)與 Cortex?-M33(200MHz),提供強(qiáng)勁的計(jì)算能力,同時(shí)兼顧
    發(fā)表于 03-19 17:54

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計(jì)算和推理軟件與 Oracle 的 AI 基礎(chǔ)設(shè)施以及生成式 AI 服務(wù)首次實(shí)現(xiàn)集成,以幫助全球企業(yè)組織
    發(fā)表于 03-19 15:24 ?438次閱讀
    Oracle 與 NVIDIA 合作<b class='flag-5'>助力</b>企業(yè)<b class='flag-5'>加速</b>代理式 <b class='flag-5'>AI</b> <b class='flag-5'>推理</b>

    支持實(shí)時(shí)物體識(shí)別的視覺(jué)人工智能微處理器RZ/V2MA數(shù)據(jù)手冊(cè)

    DRP-AI 采用了一種由動(dòng)態(tài)可重構(gòu)處理器(DRP)和 AI-MAC組成的人工智能加速器,該加速器加速
    的頭像 發(fā)表于 03-18 18:12 ?654次閱讀
    支持實(shí)時(shí)物體識(shí)別的視覺(jué)人工智能微<b class='flag-5'>處理器</b>RZ/V2MA數(shù)據(jù)手冊(cè)

    AI MPU# 瑞薩RZ/V2H 四核視覺(jué) ,采用 DRP-AI3 加速器和高性能實(shí)時(shí)處理器

    RZ/V2H 高端 AI MPU 采用瑞薩電子專(zhuān)有的AI 加速器-動(dòng)態(tài)可重配置處理器 (DRP-AI3)、四核
    的頭像 發(fā)表于 03-15 11:50 ?1789次閱讀
    <b class='flag-5'>AI</b> MPU# 瑞薩RZ/V2H 四核視覺(jué) ,采用 DRP-<b class='flag-5'>AI</b>3 <b class='flag-5'>加速器</b>和高性能實(shí)時(shí)<b class='flag-5'>處理器</b>

    Arm Cortex-A320 CPU助力嵌入式設(shè)備實(shí)現(xiàn)高能效AI計(jì)算

    Arm Cortex-A320 是目前最小型的 Armv9-A 架構(gòu) CPU。得益于該處理器的推出,開(kāi)發(fā)者現(xiàn)在能有更多選擇決定如何處理物聯(lián)網(wǎng)邊緣人工智能 (AI)
    的頭像 發(fā)表于 02-27 17:17 ?1033次閱讀
    <b class='flag-5'>Arm</b> Cortex-A320 CPU<b class='flag-5'>助力</b>嵌入式設(shè)備實(shí)現(xiàn)高能效<b class='flag-5'>AI</b>計(jì)算

    Arm KleidiAI助力提升PyTorch上LLM推理性能

    熱門(mén)的深度學(xué)習(xí)框架尤為突出,許多企業(yè)均會(huì)選擇其作為開(kāi)發(fā) AI 應(yīng)用的庫(kù)。通過(guò)部署 Arm Kleidi 技術(shù),Arm 正在努力優(yōu)化 PyTorch,以
    的頭像 發(fā)表于 12-03 17:05 ?1806次閱讀
    <b class='flag-5'>Arm</b> KleidiAI<b class='flag-5'>助力</b>提升PyTorch上LLM<b class='flag-5'>推理</b>性能

    NVIDIA助力麗蟾科技打造AI訓(xùn)練與推理加速解決方案

    麗蟾科技通過(guò) Leaper 資源管理平臺(tái)集成 NVIDIA AI Enterprise,為企業(yè)和科研機(jī)構(gòu)提供了一套高效、靈活的 AI 訓(xùn)練與推理加速解決方案。無(wú)論是在復(fù)雜的
    的頭像 發(fā)表于 10-27 10:03 ?1463次閱讀
    NVIDIA<b class='flag-5'>助力</b>麗蟾科技打造<b class='flag-5'>AI</b>訓(xùn)練與<b class='flag-5'>推理</b><b class='flag-5'>加速</b>解決方案