18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于AX650N/AX630C部署端側(cè)大語(yǔ)言模型Qwen2

愛(ài)芯元智AXERA ? 來(lái)源:愛(ài)芯元智AXERA ? 2024-07-06 17:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Qwen2: Qwen is the large language model and large multimodal model series of the Qwen Team, Alibaba Group. Now the large language models have been upgraded to Qwen2.

背景

云端大模型,端側(cè)小模型,端云協(xié)同進(jìn)提升用戶(hù)體驗(yàn)已成為今年大模型(LLM)產(chǎn)品化落地的一個(gè)熱點(diǎn)話題。今年以來(lái),各大手機(jī)廠家紛紛推出了端側(cè)小模型版本,例如Google的Gemini-nano(1.8B)、VIVO的藍(lán)星大模型(1B)、以及國(guó)內(nèi)“小鋼炮”MiniCPM(1B)等等均已在各自/客戶(hù)手機(jī)上部署落地,進(jìn)一步增加了手機(jī)智能屬性和便捷性。那么在設(shè)備數(shù)量更多的IoT領(lǐng)域是否也能部署經(jīng)濟(jì)實(shí)用的LLM呢?例如實(shí)現(xiàn)本地人機(jī)問(wèn)答AI Agent、Function Call等等功能?

本文將分享如何將最新的端側(cè)大語(yǔ)言模型部署到超高性?xún)r(jià)比SoC上,向業(yè)界對(duì)端側(cè)大模型部署的開(kāi)發(fā)者提供一種新的思路。

Qwen2介紹

Qwen是阿里巴巴集團(tuán)Qwen團(tuán)隊(duì)研發(fā)的大語(yǔ)言模型和大型多模態(tài)模型系列。目前,大語(yǔ)言模型已升級(jí)至Qwen2版本。無(wú)論是語(yǔ)言模型還是多模態(tài)模型,均在大規(guī)模多語(yǔ)言和多模態(tài)數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,并通過(guò)高質(zhì)量數(shù)據(jù)進(jìn)行后期微調(diào)以貼近人類(lèi)偏好。Qwen具備自然語(yǔ)言理解、文本生成、視覺(jué)理解、音頻理解、工具使用、角色扮演、作為AI Agent進(jìn)行互動(dòng)等多種能力。

官方文檔:

https://qwen.readthedocs.io/zh-cn/latest/index.html

Github項(xiàng)目:

https://github.com/QwenLM/Qwen2

最新版本Qwen2有以下特點(diǎn):

5種模型規(guī)模,包括0.5B、1.5B、7B、57B-A14B和72B;

針對(duì)每種尺寸提供基礎(chǔ)模型和指令微調(diào)模型,并確保指令微調(diào)模型按照人類(lèi)偏好進(jìn)行校準(zhǔn);

●基礎(chǔ)模型和指令微調(diào)模型的多語(yǔ)言支持;

●所有模型均穩(wěn)定支持32K長(zhǎng)度上下文;

●支持工具調(diào)用、RAG(檢索增強(qiáng)文本生成)、角色扮演、AI Agent等。

最近Hugging Face聯(lián)合創(chuàng)始人兼首席執(zhí)行Clem Delangue于6月26日在X平臺(tái)發(fā)布推文,表示阿里云開(kāi)源的通義千問(wèn)(Qwen)指令微調(diào)模型Qwen2-72B在開(kāi)源模型排行榜上榮登榜首。

b5fc97f6-3b6f-11ef-a4c8-92fbcf53809c.png

來(lái)自HuggingFace獨(dú)立、客觀、第三方的認(rèn)可,從側(cè)面再次證明了Qwen2的技術(shù)先進(jìn)性。同時(shí)也分享下在端側(cè)芯片AX650N上部署效果。

芯片介紹

3.1 AX650N

愛(ài)芯元智第三代高能效比智能視覺(jué)芯片AX650N。集成了八核Cortex-A55 CPU,高能效比NPU,支持8K@30fps的ISP,以及H.264、H.265編解碼的 VPU。接口方面,AX650N支持64bit LPDDR4x,多路MIPI輸入,千兆EthernetUSB、以及HDMI 2.0b輸出,并支持32路1080p@30fps解碼內(nèi)置高算力和超強(qiáng)編解碼能力,滿(mǎn)足行業(yè)對(duì)高性能邊緣智能計(jì)算的需求。通過(guò)內(nèi)置多種深度學(xué)習(xí)算法,實(shí)現(xiàn)視覺(jué)結(jié)構(gòu)化、行為分析、狀態(tài)檢測(cè)等應(yīng)用,高效率支持基于Transformer結(jié)構(gòu)的視覺(jué)大模型和語(yǔ)言類(lèi)大模型。提供豐富的開(kāi)發(fā)文檔,方便用戶(hù)進(jìn)行二次開(kāi)發(fā)。

b65cf628-3b6f-11ef-a4c8-92fbcf53809c.jpg

3.2AX630C

愛(ài)芯元智第四代智能視覺(jué)芯片AX630C,該芯片集成新一代智眸4.0AI-ISP,最高支持4K@30fps實(shí)時(shí)真黑光,同時(shí)集成新一代通元4.0高性能、高能效比 NPU引擎,使得產(chǎn)品在低功耗、高畫(huà)質(zhì)、智能處理和分析等方面行業(yè)領(lǐng)先。提供穩(wěn)定易用的SDK軟件開(kāi)發(fā)包,方便用戶(hù)低成本評(píng)估、二次開(kāi)發(fā)和快速量產(chǎn)。幫助用戶(hù)在智能家居應(yīng)用和其他AIoT項(xiàng)目中發(fā)揮更大的價(jià)值。

b6a4bf6c-3b6f-11ef-a4c8-92fbcf53809c.jpg

結(jié)合AX630C的產(chǎn)品規(guī)格,我們選擇最合適的Qwen2 0.5B-Instruct作為本次示例模型。

LLM編譯

4.1Pulsar2

Pulsar2是新一代AI工具鏈,包含模型轉(zhuǎn)換、離線量化、模型編譯、異構(gòu)調(diào)度四合一超強(qiáng)功能,進(jìn)一步強(qiáng)化了網(wǎng)絡(luò)模型高效部署的需求。在針對(duì)第三代、第四代NPU架構(gòu)進(jìn)行了深度定制優(yōu)化的同時(shí),也擴(kuò)展了算子&模型支持的能力及范圍,對(duì)Transformer結(jié)構(gòu)的網(wǎng)絡(luò)也有較好的支持。

最新釋放的Pulsar2 3.0-temp版本新增llm build模塊。在該版本中已經(jīng)可編譯出能在AX650N上運(yùn)行的大模型版axmodel(AX630C的llm build Release版加班開(kāi)發(fā)中……當(dāng)然我們?cè)诰W(wǎng)盤(pán)中提供了預(yù)編譯體驗(yàn)版本,感興趣的朋友可以先試試效果)

https://pulsar2-docs.readthedocs.io/zh-cn/latest/appendix/build_llm.html

4.2 下載ax-llm-build項(xiàng)目

默認(rèn)用戶(hù)已經(jīng)按照Pulsar2 v3.0-temp版本文檔中《開(kāi)發(fā)環(huán)境準(zhǔn)備》章節(jié)完成docker鏡像安裝并已進(jìn)入pulsar2的docker環(huán)境。

git clone https://github.com/AXERA-TECH/ax-llm-build.git

4.3 下載Qwen2-0.5B-Instruct

cd ax-llm-build
pip install -U huggingface_hub
huggingface-cli download --resume-download Qwen/Qwen2-0.5B-Instruct --local-dir Qwen/Qwen2-0.5B-Instruct

4.4 編譯執(zhí)行

pulsar2 llm_build --input_path Qwen/Qwen2-0.5B-Instruct/ --output_path Qwen/Qwen2-0.5B-w8a16/ --kv_cache_len 1023 --model_config config/qwen2-0.5B.json --hidden_state_type bf16 --weight_type s8

log參考信息

root@gpux2:/data/ax-llm-build# pulsar2 llm_build --input_path Qwen/Qwen2-0.5B-Instruct/ --output_path Qwen/Qwen2-0.5B-w8a16/ --kv_cache_len 1023 --model_config config/qwen2-0.5B.json --hidden_state_type bf16 --weight_type s8
Config(
  model_name='Qwen/Qwen2-0.5B-Instruct',
  model_type='qwen',
  num_hidden_layers=24,
  num_attention_heads=14,
  num_key_value_heads=2,
  hidden_size=896,
  intermediate_size=4864,
  vocab_size=151936,
  rope_theta_base=1000000.0,
  max_position_embedings=32768,
  rope_partial_factor=1.0,
  norm_eps=1e-06,
  norm_type='rms_norm',
  hidden_act='silu'
)
2024-07-01 1108.009 | SUCCESS | yamain.command.llm_build85 - prepare llm model done!
building llm decode layers  ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 24/24 059
building llm post layer  ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 1/1 024
2024-07-01 1131.941 | SUCCESS | yamain.command.llm_build128 - build llm model done!
2024-07-01 1156.925 | SUCCESS | yamain.command.llm_build277 - check llm model done!

embed提取和優(yōu)化

python tools/extract_embed.py --input_path Qwen/Qwen2-0.5B-Instruct/ --output_path Qwen/Qwen2-0.5B-w8a16/
python tools/embed-process.py --input Qwen/Qwen2-0.5B-w8a16/model.embed_tokens.weight.npy --output Qwen/Qwen2-0.5B-w8a16/model.embed_tokens.weight.float32.bin
chmod +x ./tools/fp32_to_bf16
./tools/fp32_to_bf16 Qwen/Qwen2-0.5B-w8a16/model.embed_tokens.weight.float32.bin Qwen/Qwen2-0.5B-w8a16/model.embed_tokens.weight.bfloat16.bin

4.5輸出文件說(shuō)明

root@xxx:/data/ax-llm-build# tree Qwen/Qwen2-0.5B-w8a16
Qwen/Qwen2-0.5B-w8a16
├── model.embed_tokens.weight.bfloat16.bin
├── model.embed_tokens.weight.float32.bin
├── model.embed_tokens.weight.npy
├── qwen_l0.axmodel
├── qwen_l10.axmodel
├── qwen_l11.axmodel
├── qwen_l12.axmodel
├── qwen_l13.axmodel
......
├── qwen_l7.axmodel
├── qwen_l8.axmodel
├── qwen_l9.axmodel
└── qwen_post.axmodel

其中,

model.embed_tokens.weight.bfloat16.bin、qwen_l0.axmodel ~ qwen_l23.axmodel、qwen_post.axmodel,

是上板運(yùn)行需要的。

開(kāi)發(fā)板運(yùn)行

5.1 ax-llm項(xiàng)目

ax-llm項(xiàng)目用于探索業(yè)界常用LLM(Large Language Model)在AXERA已有芯片平臺(tái)上落地的可行性和相關(guān)能力邊界,方便社區(qū)開(kāi)發(fā)者進(jìn)行快速評(píng)估和二次開(kāi)發(fā)自己的LLM應(yīng)用。

https://github.com/AXERA-TECH/ax-llm

同時(shí),我們?cè)诰W(wǎng)盤(pán)中已經(jīng)提供好了分別基于AX650N和AX630C平臺(tái)預(yù)編譯好的部分LLM示例。

https://pan.baidu.com/s/1_LG-sPKnLS_LTWF3Cmcr7A?pwd=ph0e

5.2 執(zhí)行過(guò)程(基于AX650N開(kāi)發(fā)板)

root@ax650:/mnt/qtang/llama_axera_cpp# ./run_qwen2_0.5B.sh
[I][              Init][ 71]: LLM init start
 3% | ██                |  1 / 27 [0.28s<7.48s, 3.61 count/s] tokenizer init ok
[I][ ? ? ? ? ? ? ? ? ? ? ? ? ? ?Init][ ?26]: LLaMaEmbedSelector use mmap
100% | ████████████████████████████████ | ?27 / ?27 [7.40s<7.40s, 3.65 count/s] init post axmodel okremain_cmm(11583 MB)
[I][ ? ? ? ? ? ? ? ? ? ? ? ? ? ?Init][ 180]: max_token_len : 1023
[I][ ? ? ? ? ? ? ? ? ? ? ? ? ? ?Init][ 185]: kv_cache_size : 128, kv_cache_num: 1023
[I][ ? ? ? ? ? ? ? ? ? ? ? ? ? ?Init][ 199]: LLM init ok
Type "q" to exit, Ctrl+c to stop current running
>> who are you?
I am a large language model created by Alibaba Cloud. I am called Qwen.
[N][               Run][ 388]: hit eos,avg 24.51 token/s

5.3 視頻示例(基于AX630C開(kāi)發(fā)板)

5.4 性能統(tǒng)計(jì)

AX650N、AX630C目前均采用W8A16量化方案(性能優(yōu)化會(huì)持續(xù)進(jìn)行)

AX650N

模型名稱(chēng) 參數(shù)量 速度(token/s)
TinyLlama-1.1 1.1B 16.5
Qwen2.0 0.5B 29.0
Qwen2.0 1.5B 11.2
MiniCPM 2.4B 6.0
Phi3Qwen2.0 3.8B 5.0
Llama3 8B 2.5

AX630C:

模型名稱(chēng) 參數(shù)量 速度(token/s)
TinyLlama-1.1 1.1B 5.8
Qwen2.0 0.5B 10.7

結(jié)束語(yǔ)

隨著大語(yǔ)言模型小型化的快速發(fā)展,越來(lái)越多有趣的多模態(tài)AI應(yīng)用將逐漸從云端服務(wù)遷移到邊緣側(cè)設(shè)備和端側(cè)設(shè)備。我們會(huì)緊跟行業(yè)最新動(dòng)態(tài),歡迎大家持續(xù)關(guān)注。

7月4日-7日,愛(ài)芯元智@2024WAIC,上海世博展覽館2號(hào)館C1525(H2-C1525),歡迎大家現(xiàn)場(chǎng)交流。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 愛(ài)芯元智
    +關(guān)注

    關(guān)注

    1

    文章

    108

    瀏覽量

    5321
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3358

    瀏覽量

    4779
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    339

    瀏覽量

    1184

原文標(biāo)題:愛(ài)芯分享 | 基于AX650N/AX630C部署Qwen2

文章出處:【微信號(hào):愛(ài)芯元智AXERA,微信公眾號(hào):愛(ài)芯元智AXERA】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于AX650N/AX630C部署多模態(tài)大模型InternVL2-1B

    InternVL2是由上海人工智能實(shí)驗(yàn)室OpenGVLab發(fā)布的一款多模態(tài)大模型,中文名稱(chēng)為“書(shū)生·萬(wàn)象”。該模型在多學(xué)科問(wèn)答(MMMU)等任務(wù)上表現(xiàn)出色,并且具備處理多種模態(tài)數(shù)據(jù)的能力。
    的頭像 發(fā)表于 11-18 17:32 ?2266次閱讀
    基于<b class='flag-5'>AX650N</b>/<b class='flag-5'>AX630C</b><b class='flag-5'>部署</b>多模態(tài)大<b class='flag-5'>模型</b>InternVL<b class='flag-5'>2</b>-1B

    部署DeepSeek R1于AX650NAX630C平臺(tái)

    背景 春節(jié)前,國(guó)產(chǎn)大模型 DeepSeek 橫空出世,迅速成為AI領(lǐng)域的焦點(diǎn)。作為側(cè)AI能效比優(yōu)異的 AX650N、AX630C 芯片平臺(tái)
    的頭像 發(fā)表于 02-09 09:32 ?1740次閱讀
    <b class='flag-5'>部署</b>DeepSeek R1于<b class='flag-5'>AX650N</b>與<b class='flag-5'>AX630C</b>平臺(tái)

    AI SoC # 愛(ài)芯元智AX650N詳細(xì)介紹:原生支持Transformer架構(gòu)模型 適用部署DeepSeek R1

    AX650N是愛(ài)芯元智(AXERA)推出的一款高性能邊緣側(cè)AI芯片,專(zhuān)注于智能視覺(jué)感知與計(jì)算,廣泛應(yīng)用于智慧城市、智能制造、機(jī)器人等領(lǐng)域。以下是其核心特性及應(yīng)用場(chǎng)景的詳細(xì)分析: *附件:AX650N
    的頭像 發(fā)表于 03-04 11:15 ?6520次閱讀
    AI SoC # 愛(ài)芯元智<b class='flag-5'>AX650N</b>詳細(xì)介紹:原生支持Transformer架構(gòu)<b class='flag-5'>模型</b> 適用<b class='flag-5'>部署</b>DeepSeek R1

    愛(ài)芯元智發(fā)布第三代智能視覺(jué)芯片AX650N,為智慧生活賦能

    中國(guó) 上海 2023 年 3 月 6 日 ——人工智能視覺(jué)感知芯片研發(fā)及基礎(chǔ)算力平臺(tái)公司愛(ài)芯元智宣布推出第三代高算力、高能效比的SoC芯片——AX650N。這是繼AX620、AX630系列后,愛(ài)芯元
    發(fā)表于 03-07 10:57 ?2226次閱讀
    愛(ài)芯元智發(fā)布第三代智能視覺(jué)芯片<b class='flag-5'>AX650N</b>,為智慧生活賦能

    【愛(ài)芯派 Pro 開(kāi)發(fā)板試用體驗(yàn)】愛(ài)芯元智AX650N部署yolov5s 自定義模型

    愛(ài)芯元智AX650N部署yolov5s 自定義模型 本博客將向你展示零基礎(chǔ)一步步的部署好自己的yolov5s模型(博主展示的是安全帽
    發(fā)表于 11-16 19:34

    【愛(ài)芯派 Pro 開(kāi)發(fā)板試用體驗(yàn)】愛(ài)芯元智AX650N部署yolov8s 自定義模型

    愛(ài)芯元智AX650N部署yolov8s 自定義模型 本博客將向你展示零基礎(chǔ)一步步的部署好自己的yolov8s模型(博主展示的是自己訓(xùn)練的手
    發(fā)表于 11-24 20:40

    【愛(ài)芯派 Pro 開(kāi)發(fā)板試用體驗(yàn)】ax650使用ax-pipeline進(jìn)行推理

    /AXERA-TECH/ax-pipeline.git 下載sdk cd ax-pipeline ./download_ax_bsp.sh ax650 cd
    發(fā)表于 12-19 17:36

    愛(ài)芯元智第三代智能視覺(jué)芯片AX650N高能效比SoC芯片

    愛(ài)芯元智正式推出第三代高算力、高能效比的SoC芯片——AX650N。這是繼AX620、AX630系列后,愛(ài)芯元智推出的又一款高性能智能視覺(jué)芯片。 AX650N是一款兼具高算力與高能效比
    的頭像 發(fā)表于 03-10 17:13 ?5481次閱讀

    基于AX650N部署EfficientViT

    側(cè)場(chǎng)景通常對(duì)模型推理的實(shí)時(shí)性要求較高,但大部分輕量級(jí)的Vision Transformer網(wǎng)絡(luò)仍無(wú)法在已有邊緣側(cè)/
    的頭像 發(fā)表于 05-26 10:30 ?1900次閱讀

    愛(ài)芯元智AX650N側(cè)、邊緣側(cè)Transformer最佳落地平臺(tái)

    Transformer是當(dāng)前各種大模型所采用的主要結(jié)構(gòu),而ChatGPT的火爆讓人們逐漸意識(shí)到人工智能有著更高的上限,并可以在計(jì)算機(jī)視覺(jué)領(lǐng)域發(fā)揮出巨大潛能。相比于在云端用GPU部署Transformer大模型,在邊緣
    的頭像 發(fā)表于 05-30 11:04 ?1651次閱讀
    愛(ài)芯元智<b class='flag-5'>AX650N</b>成<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>、邊緣<b class='flag-5'>側(cè)</b>Transformer最佳落地平臺(tái)

    基于AX650N部署視覺(jué)大模型DINOv2

    最近一段時(shí)間,基于Transformer網(wǎng)絡(luò)結(jié)構(gòu)的視覺(jué)大模型呈現(xiàn)出爆發(fā)式增長(zhǎng),繼Segment Anything(SAM)之后,Meta AI再次發(fā)布重量級(jí)開(kāi)源項(xiàng)目——DINOv2。DINOv2可以抽取到強(qiáng)大的圖像特征,且在下游
    的頭像 發(fā)表于 06-30 10:07 ?4630次閱讀

    愛(ài)芯元智發(fā)布新一代IPC SoC芯片AX630CAX620Q

    中國(guó) 深圳 2023 年 10 月 27 日 ——AI視覺(jué)芯片研發(fā)及基礎(chǔ)算力平臺(tái)公司愛(ài)芯元智宣布,發(fā)布新一代IPC SoC芯片產(chǎn)品AX630CAX620Q,以領(lǐng)先行業(yè)水平的高畫(huà)質(zhì)、智能處理和分析等
    發(fā)表于 10-27 16:26 ?2768次閱讀
    愛(ài)芯元智發(fā)布新一代IPC SoC芯片<b class='flag-5'>AX630C</b>和<b class='flag-5'>AX</b>620Q

    愛(ài)芯元智AX620E和AX650系列芯片正式通過(guò)PSA Certified安全認(rèn)證

    萬(wàn)物互聯(lián)的時(shí)代,安全性已成為物聯(lián)網(wǎng)產(chǎn)品設(shè)計(jì)及部署的基本要求。近日,愛(ài)芯元智AX620E和AX650系列芯片(包含AX630C/AX620Q/
    的頭像 發(fā)表于 04-23 15:45 ?1850次閱讀
    愛(ài)芯元智<b class='flag-5'>AX</b>620E和<b class='flag-5'>AX650</b>系列芯片正式通過(guò)PSA Certified安全認(rèn)證

    Qwen2強(qiáng)勢(shì)來(lái)襲,AIBOX支持本地化部署

    Qwen2是阿里通義推出的新一代多語(yǔ)言預(yù)訓(xùn)練模型,經(jīng)過(guò)更深入的預(yù)訓(xùn)練和指令調(diào)整,在多個(gè)基準(zhǔn)評(píng)測(cè)結(jié)果中表現(xiàn)出色,尤其在代碼和數(shù)學(xué)方面有顯著提升,同時(shí)拓展了上下文長(zhǎng)度支持,最高可達(dá)128K。目前
    的頭像 發(fā)表于 06-27 08:02 ?1761次閱讀
    <b class='flag-5'>Qwen2</b>強(qiáng)勢(shì)來(lái)襲,AIBOX支持本地化<b class='flag-5'>部署</b>

    重磅發(fā)布 | 矽速 M4N Dock 支持 DeepSeek R1,側(cè)模型部署新標(biāo)桿!

    01性能炸裂速度領(lǐng)先RK358815%,性能直逼OrinNano!久等了!矽速M(fèi)4NDock(愛(ài)芯派Pro,AX650N)已支持部署DeepSeekR1大模型,實(shí)測(cè)運(yùn)行速度超越RK3588達(dá)15
    的頭像 發(fā)表于 02-18 15:35 ?1425次閱讀
    重磅發(fā)布 | 矽速 M4<b class='flag-5'>N</b> Dock 支持 DeepSeek R1,<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>大<b class='flag-5'>模型</b><b class='flag-5'>部署</b>新標(biāo)桿!