18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一鍵搞定!PP-OCRv5模型轉ONNX格式全攻略,解鎖多平臺無縫部署

jf_23871869 ? 來源:jf_23871869 ? 作者:jf_23871869 ? 2025-09-05 16:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

飛槳技術生態(tài)伙伴 算力魔方

| 引言:還在為OCR模型在不同硬件上的部署而頭疼嗎?百度飛槳的PP-OCRv5重磅升級,準確率提升13%,且一個模型同時支持中、英、日等五種文字!本文將手把手教你如何將PP-OCRv5模型轉換為通用ONNX格式,讓你能在Intel、AMD、高通、蘋果等各類設備上輕松部署,真正實現(xiàn)“一次轉換,隨處運行”。

圖片

在當前多語言混合文檔處理需求日益增長的背景下,百度飛槳推出的PP-OCRv5

https://github.com/PaddlePaddle/PaddleOCR

成為了業(yè)界矚目的焦點。這款輕量級光學字符識別(OCR)系統(tǒng)不僅將準確率提升了13%,更強大的是,它實現(xiàn)了單一模型同時識別簡體中文、繁體中文、英文、日文和拼音五大文本類型,堪稱文檔處理領域的“瑞士軍刀”。

一,為何需要轉換為ONNX格式?

盡管PP-OCRv5本身非常強大,但若想將其部署在Intel、AMD、高通、蘋果、瑞芯微等各式各樣的AI推理設備上,直接使用原模型可能會面臨兼容性挑戰(zhàn)。而ONNX(Open Neural Network Exchange) 作為一個開放的模型格式標準,就像是AI世界的“通用翻譯官”,能夠幫助你的模型在不同的硬件和框架之間自由穿梭。

只需完成一次轉換,即可利用ONNX Runtime, TensorRT, OpenVINO, ROCm等眾多推理引擎進行高速推理,極大地擴展了應用邊界。

二,四步上手:PP-OCRv5模型轉換ONNX全流程

1,準備工作:安裝所需環(huán)境與工具

首先,我們需要一個干凈的Python環(huán)境來避免庫版本沖突。推薦使用Anaconda創(chuàng)建虛擬環(huán)境。

# 創(chuàng)建并激活名為 ppocrv5_ov 的虛擬環(huán)境
conda create -n ppocrv5_ov python=3.11
conda activate ppocrv5_ov

image.png

接下來,安裝必不可少的PaddlePaddle深度學習框架和PaddleOCR庫。

# 安裝PaddlePaddle和PaddleOCR
pip install paddlepaddle
pip install paddleocr
# 安裝高性能推理依賴(CPU版)
paddleocr install_hpi_deps cpu

最后,安裝本次轉換的“主角”——模型轉換工具 paddle2onnx 。

# 安裝paddle2onnx轉換工具
paddlex --install paddle2onnx

image.png

2,下載預訓練模型

我們將官方提供的服務器版高性能模型下載到本地。它們分別是檢測(detection)、識別(recognition)和分類(classification) 模型。

# 1. 下載并解壓文本檢測模型
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/official_inference_model/paddle3.0.0/PP-OCRv5_server_det_infer.tar
tar -xvf PP-OCRv5_server_det_infer.tar
# 2. 下載并解壓文本識別模型
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/official_inference_model/paddle3.0.0/PP-OCRv5_server_rec_infer.tar
tar -xvf PP-OCRv5_server_rec_infer.tar
# 3. 下載并解壓文本方向分類模型
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/official_inference_model/paddle3.0.0/PP-LCNet_x1_0_doc_ori_infer.tar
tar -xvf PP-LCNet_x1_0_doc_ori_infer.tar

image.png

3,核心步驟:模型轉換

現(xiàn)在,我們使用安裝好的 paddle2onnx 工具,將三個模型依次轉換為ONNX格式。

# 轉換檢測模型
paddlex --paddle2onnx --paddle_model_dir ./PP-OCRv5_server_det_infer --onnx_model_dir ./PP-OCRv5_server_det_onnx
# 轉換識別模型
paddlex --paddle2onnx --paddle_model_dir ./PP-OCRv5_server_rec_infer --onnx_model_dir ./PP-OCRv5_server_rec_onnx
# 轉換分類模型
paddlex --paddle2onnx --paddle_model_dir ./PP-LCNet_x1_0_doc_ori_infer --onnx_model_dir ./PP-OCRv5_server_cls_onnx

轉換成功后,你將在當前目錄看到三個對應的新文件夾(PP-OCRv5_server_det_onnx, PP-OCRv5_server_rec_onnx, PP-OCRv5_server_cls_onnx),里面便是生成的ONNX模型文件。
image.png

4,驗證轉換結果

理論轉完了,實際能用嗎?讓我們寫個腳本測試一下。

首先,下載一張示例圖片:

wget https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_ocr_002.png

然后,使用PaddleOCR命令,指定我們剛剛轉換好的ONNX模型進行推理:

paddleocr ocr -i ./general_ocr_002.png 
              --text_detection_model_name PP-OCRv5_server_det 
              --text_detection_model_dir PP-OCRv5_server_det_onnx 
              --text_recognition_model_name PP-OCRv5_server_rec 
              --text_recognition_model_dir PP-OCRv5_server_rec_onnx/ 
              --enable_hpi True 
              --device cpu

如果終端成功打印出了圖片中的文字識別結果,那么恭喜你!這意味著從模型轉換到推理的整個流程已全部跑通,ONNX模型工作正常。

image.png

三,結語與展望
通過以上五個步驟,我們成功地將PP-OCRv5模型轉換為了ONNX格式,為其在廣闊硬件平臺上的部署打開了大門。無論是云端服務器還是邊緣設備,ONNX都能提供強大的跨平臺能力。
審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • OCR
    OCR
    +關注

    關注

    0

    文章

    169

    瀏覽量

    16989
  • 飛槳
    +關注

    關注

    0

    文章

    37

    瀏覽量

    2597
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    使用OpenVINO將PP-OCRv5模型部署在Intel顯卡上

    個用于優(yōu)化和部署人工智能(AI)模型,提升AI推理性能的開源工具集合,不僅支持以卷積神經(jīng)網(wǎng)絡(CNN)為核心組件的預測式AI模型(Predictive AI),還支持以Transf
    的頭像 發(fā)表于 09-20 11:17 ?666次閱讀
    使用OpenVINO將<b class='flag-5'>PP-OCRv5</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>在Intel顯卡上

    【EASY EAI Orin Nano開發(fā)板試用體驗】PP-OCRV5文字識別實例搭建與移植

    【EASY EAI Orin Nano開發(fā)板試用體驗】PP-OCRV5文字識別實例搭建與移植 PP-OCRV5PP-OCR新代文字識別解決方案, 該方案聚焦于
    發(fā)表于 08-18 16:57

    基于算力魔方與PP-OCRv5的OpenVINO智能文檔識別方案

    )團隊最新推出的PP-OCRv5模型在精度和效率上實現(xiàn)了顯著突破,結合Intel OpenVINO工具套件的硬件加速能力,能夠為各類文檔處理場景提供更強大的支持。 二,算力魔方簡介 算力魔方是款可以DIY的迷你主機,采用了抽屜
    的頭像 發(fā)表于 06-12 21:19 ?1175次閱讀
    基于算力魔方與<b class='flag-5'>PP-OCRv5</b>的OpenVINO智能文檔識別方案

    UC3854 功率因數(shù)校正設計全攻略:從理論到實戰(zhàn)

    【限時下載】UC3854 功率因數(shù)校正(PFC)設計全攻略:從理論到實戰(zhàn),工程師必備技術手冊 *附件:《UC3854 功率因數(shù)校正設計全攻略:從理論到實戰(zhàn)》.pdf 為什么工程師必須掌握這份資料
    的頭像 發(fā)表于 04-09 15:35 ?922次閱讀
    UC3854 功率因數(shù)校正設計<b class='flag-5'>全攻略</b>:從理論到實戰(zhàn)

    使用OpenVINO優(yōu)化并部署飛槳PP-OCRv4模型

    算法,在此基礎上打造產(chǎn)業(yè)級特色模型系列:PP-OCR、PP-Structure和PP-ChatOCR,打通了模型訓練、壓縮、
    的頭像 發(fā)表于 04-03 18:07 ?1865次閱讀
    使用OpenVINO優(yōu)化并<b class='flag-5'>部署</b>飛槳<b class='flag-5'>PP-OCRv</b>4<b class='flag-5'>模型</b>

    無感無刷直流電機驅動全攻略

    。 [*附件:無感無刷直流電機驅動全攻略.pdf](https://file1.elecfans.com/web3/M00/0C/79/wKgZO2fT04iAHISwAExmk6leMWw14
    發(fā)表于 03-14 14:58

    yolov5onnx在cubeAI進行部署,部署失敗的原因?

    個我是onnx時 想把權重文件變小點 就用了半精度 --half,則說17版本不支持半精度 后面則是沒有縮小的單精度 但是顯示哪里溢出了···· 也不說是哪里、、。。。 到底能不能部署
    發(fā)表于 03-07 11:38

    ONNX模型轉換為中間表示 (IR) 格式,收到了錯誤的輸出是怎么回事?

    ONNX* 模型轉換為中間表示 (IR) 格式,并收到了錯誤的推斷輸出。自定義模型使用動態(tài)形狀。
    發(fā)表于 03-07 08:20

    使用模型優(yōu)化器命令將ONNX模型轉換為OpenVINO? IR格式時出現(xiàn)“ReplacementID”錯誤怎么解決?

    使用模型優(yōu)化器命令將 ONNX 模型轉換為 OpenVINO? IR 格式: --input_model \"{onnx_path} --
    發(fā)表于 03-05 09:41

    解鎖 30KPA43A參數(shù)、特性與應用全攻略

    解鎖 30KPA43A參數(shù)、特性與應用全攻略
    的頭像 發(fā)表于 02-18 14:41 ?573次閱讀
    <b class='flag-5'>解鎖</b> 30KPA43A參數(shù)、特性與應用<b class='flag-5'>全攻略</b>

    如何在C#中部署飛槳PP-OCRv4模型

    《超4萬6千星的開源OCR黑馬登場,PaddleOCR憑什么脫穎而出?》收到了讀者熱烈反響c,很多讀者提出:如何在C#中部署飛槳PP-OCRv4模型?本文從零開始詳細介紹整個過程。
    的頭像 發(fā)表于 02-17 10:58 ?2466次閱讀
    如何在C#中<b class='flag-5'>部署</b>飛槳<b class='flag-5'>PP-OCRv</b>4<b class='flag-5'>模型</b>

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    ,Gemma 和其他多種模型,在安裝Ollama工具之后,使用以下命令即可一鍵部署15億參數(shù)的deepseek-r1模型,運行之后如下圖所示: ollama run deepseek-
    發(fā)表于 02-14 17:42

    使用OpenVINO C# API輕松部署飛槳PP-OCRv4模型

    ? 作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《超4萬6千星的開源OCR黑馬登場,PaddleOCR憑什么脫穎而出?》 收到了讀者熱烈反響,很多讀者提出:如何在C#中部署飛槳PP-OCRv4模型
    的頭像 發(fā)表于 02-12 10:42 ?1862次閱讀
    使用OpenVINO C# API輕松<b class='flag-5'>部署</b>飛槳<b class='flag-5'>PP-OCRv</b>4<b class='flag-5'>模型</b>

    避坑指南:云服務器數(shù)據(jù)庫購買方法全攻略

    云服務器數(shù)據(jù)庫購買方法包含:先明確業(yè)務需求與數(shù)據(jù)庫類型,再挑選信譽好、技術支持強的云服務提供商,接著根據(jù)需求配置數(shù)據(jù)庫實例及選擇付費方式。購買后,通過云管理平臺訪問管理數(shù)據(jù)庫,并定期監(jiān)控性能以優(yōu)化運行。以下是UU云小編整理的份詳細的購買方法
    的頭像 發(fā)表于 01-15 10:05 ?722次閱讀

    企業(yè)AI模型部署攻略

    當下,越來越多的企業(yè)開始探索和實施AI模型,以提升業(yè)務效率和競爭力。然而,AI模型部署并非易事,需要企業(yè)在多個層面進行細致的規(guī)劃和準備。下面,AI部落小編為企業(yè)提供份AI
    的頭像 發(fā)表于 12-23 10:31 ?1058次閱讀