18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

在C++中使用OpenVINO工具包部署YOLOv5模型

SDNLAB ? 來源:英特爾物聯(lián)網(wǎng) ? 2023-02-15 16:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

01配置OpenVINO C++開發(fā)環(huán)境

配置OpenVINO C++開發(fā)環(huán)境的詳細步驟,請參考《在Windows中基于Visual Studio配置OpenVINO C++開發(fā)環(huán)境》。

02下載并轉(zhuǎn)換YOLOv5預訓練模型

下載并轉(zhuǎn)換YOLOv5預訓練模型的詳細步驟,請參考:《基于OpenVINO2022.2和蝰蛇峽谷優(yōu)化并部署YOLOv5模型》,本文所使用的OpenVINO是2022.3 LTS版。

完成上述步驟后,可以獲得YOLOv5的IR模型文件:yolov5s.xml 和 yolov5s.bin,如下圖所示:

3348155a-a3d7-11ed-bfe3-dac502259ad0.png

圖 1-1YOLOv5 IR模型文件

03使用OpenVINO Runtime C++ API編寫推理程序

一個端到端的AI推理程序,主要包含五個典型的處理流程:

1.采集圖像&圖像解碼

2.圖像數(shù)據(jù)預處理

3.AI推理計算

4.對推理結(jié)果進行后處理

5.將處理后的結(jié)果集成到業(yè)務流程

33555184-a3d7-11ed-bfe3-dac502259ad0.png

圖 1-2端到端的AI推理程序處理流程

采集圖像&圖像解碼

OpenCV提供imread()函數(shù)將圖像文件載入內(nèi)存

Matcv::imread(constString&filename, intflags=IMREAD_COLOR)

若是從視頻流(例如,視頻文件、網(wǎng)絡攝像頭、3D攝像頭(Realsense)等)中,一幀一幀讀取圖像數(shù)據(jù)到內(nèi)存,則使用cv::VideoCapture類,對應范例代碼請參考OpenCV官方范例代碼:

https://github.com/opencv/opencv/tree/4.x/samples/cpp。

33692114-a3d7-11ed-bfe3-dac502259ad0.png

圖 1-3從視頻流讀取圖像幀范例

YOLOv5的圖像預處理

圖像數(shù)據(jù)輸入YOLOv5模型前需要做預處理,其主要工作有:使用Letterbox算法對圖像進行非變形放縮,然后完成轉(zhuǎn)換顏色通道、歸一化數(shù)據(jù)、更改數(shù)據(jù)布局和數(shù)值精度。

直接調(diào)用OpenCV的cv::resize()函數(shù)將原始圖像按照模型輸入要求的尺寸進行放縮,雖然實現(xiàn)起來簡單,但會導致圖像中的被檢測對象變形。Letterbox算法一種不會導致被檢測對象變形的縮放,主要步驟為:

1.計算寬高縮放比例,選擇較小那個縮放系數(shù)

2.計算縮放后的尺寸,原始圖片的長寬都乘以較小的縮放系數(shù)

3.計算短邊需要填充的灰邊數(shù),將短邊的兩邊各自填充一半的灰行 參考YOLOv5的Letterbox算法實現(xiàn)方式,本文的Letterbox函數(shù)實現(xiàn)如下所示:

cv::Matletterbox(cv::Mat&img, std::vectornew_shape={640, 640}){

// Get current image shape [height, width]

// Refer to https://github.com/ultralytics/yolov5/blob/master/utils/augmentations.py#L111

intimg_h =img.rows;

intimg_w =img.cols;

// Compute scale ratio(new / old) and target resized shape

floatscale =std::min(new_shape[1] *1.0/img_h, new_shape[0] *1.0/img_w);

intresize_h =int(round(img_h *scale));

intresize_w =int(round(img_w *scale));

// Compute padding

intpad_h =new_shape[1] -resize_h;

intpad_w =new_shape[0] -resize_w;

// Resize and pad image while meeting stride-multiple constraints

cv::Mat resized_img;

cv::resize(img, resized_img, cv::Size(resize_w, resize_h));

// divide padding into 2 sides

floathalf_h =pad_h *1.0/2;

floathalf_w =pad_w *1.0/2;

// Compute padding boarder

inttop =int(round(half_h -0.1));

intbottom =int(round(half_h +0.1));

intleft =int(round(half_w -0.1));

intright =int(round(half_w +0.1));

// Add border

cv::copyMakeBorder(resized_img, resized_img, top, bottom, left, right, 0, cv::Scalar(114, 114, 114));

returnresized_img;

}

letterbox函數(shù)的運行結(jié)果如下圖所示:

33810f5e-a3d7-11ed-bfe3-dac502259ad0.png

圖 1-4letterbox放縮圖片的效果

轉(zhuǎn)換顏色通道、歸一化數(shù)據(jù)、更改數(shù)據(jù)布局和數(shù)值精度的操作可以由OpenCV提供的 Mat cv::blobFromImage()函數(shù)實現(xiàn),或者由OpenVINO的預處理API實現(xiàn)。為了簡潔范例代碼,本文選擇調(diào)用cv::blobFromImage()函數(shù)。

執(zhí)行AI推理計算

基于OpenVINO Runtime C++ API實現(xiàn)AI推理計算主要有兩種方式:一種是同步推理方式,一種是異步推理方式,本文主要介紹同步推理方式。

主要步驟有:

1.初始化Core類

2.編譯模型

3.創(chuàng)建推理請求infer_request

4.讀取圖像數(shù)據(jù)并做預處理

5.將預處理后的blob數(shù)據(jù)傳入模型輸入節(jié)點

6.調(diào)用infer()方法執(zhí)行推理計算

7.獲得推理結(jié)果

基于OpenVINO Runtime C++API的同步推理代碼如下所示:

// -------- Step 1. Initialize OpenVINO Runtime Core --------

ov::Core core;

// -------- Step 2. Compile the Model --------

autocompiled_model =core.compile_model(model_file, "CPU");//GPU.1 is dGPU A770

// -------- Step 3. Create an Inference Request --------

ov::InferRequest infer_request =compiled_model.create_infer_request();

// -------- Step 4. Read a picture file and do the preprocess --------

cv::Mat img =cv::imread(image_file);//Load a picture into memory

std::vectorpaddings(3); //scale, half_h, half_w

cv::Mat resized_img =letterbox(img, paddings);//resize to (640,640) by letterbox

// BGR->RGB, u8(0-255)->f32(0.0-1.0), HWC->NCHW

cv::Mat blob =cv::blobFromImage(resized_img, 1/255.0, cv::Size(640, 640), cv::Scalar(0, 0, 0), true);

// -------- Step 5. Feed the blob into the input node of YOLOv5 -------

// Get input port for model with one input

autoinput_port =compiled_model.input();

// Create tensor from external memory

ov::Tensorinput_tensor(input_port.get_element_type(), input_port.get_shape(), blob.ptr(0));

// Set input tensor for model with one input

infer_request.set_input_tensor(input_tensor);

// -------- Step 6. Start inference --------

infer_request.infer();

// -------- Step 7. Get the inference result --------

autooutput =infer_request.get_output_tensor(0);

autooutput_shape =output.get_shape();

std::cout <

推理結(jié)果進行后處理

對于目標檢測應用,后處理主要是執(zhí)行NMS(非極大值抑制)算法去除多余的檢測框,然后剩余的檢測框中提取出檢測框坐標(box)、置信度(confidence)和類別(class_id)。NMS算法本文直接使用了cv::NMSBoxes()。

經(jīng)過后處理,獲得了經(jīng)過NMS過濾后的檢測框坐標(box)、置信度(confidence)和類別(class_id)后,就可以將這些信息顯示在圖像上了。

04總 結(jié)

配置OpenVINO C++開發(fā)環(huán)境后,可以直接編譯運行yolov5_openvino_sync_dGPU.cpp,結(jié)果如下圖所示。

使用OpenVINO Runtime C++ API函數(shù)開發(fā)YOLOv5推理程序,簡單方便,并可以任意部署在英特爾CPU、集成顯卡和獨立顯卡上。

345ebdc2-a3d7-11ed-bfe3-dac502259ad0.png

圖 1-5運行結(jié)果







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • C++語言
    +關注

    關注

    0

    文章

    147

    瀏覽量

    7477
  • OpenCV
    +關注

    關注

    33

    文章

    650

    瀏覽量

    44089
  • 圖像解碼
    +關注

    關注

    0

    文章

    5

    瀏覽量

    7066
  • API串口
    +關注

    關注

    0

    文章

    13

    瀏覽量

    4932

原文標題:基于OpenVINO 在C++中部署YOLOv5模型

文章出處:【微信號:SDNLAB,微信公眾號:SDNLAB】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    手把手教你使用LabVIEW ONNX Runtime部署 TensorRT加速,實現(xiàn)YOLOv5實時物體識別

    今天我們就一起來看一下如何使用LabVIEW開放神經(jīng)網(wǎng)絡交互工具包實現(xiàn)TensorRT加速YOLOv5
    的頭像 發(fā)表于 03-20 16:36 ?3900次閱讀
    手把手教你使用LabVIEW ONNX Runtime<b class='flag-5'>部署</b> TensorRT加速,實現(xiàn)<b class='flag-5'>YOLOv5</b>實時物體識別

    Yolov5算法解讀

    yolov5于2020年由glenn-jocher首次提出,直至今日yolov5仍然不斷進行升級迭代。 Yolov5YOLOv5s、
    的頭像 發(fā)表于 05-17 16:38 ?1.3w次閱讀
    <b class='flag-5'>Yolov5</b>算法解讀

    YOLOv5】LabVIEW+TensorRT的yolov5部署實戰(zhàn)(含源碼)

    今天主要和大家分享LabVIEW中使用純TensoRT工具包快速部署并實現(xiàn)yolov5的物體識別
    的頭像 發(fā)表于 08-21 22:20 ?1943次閱讀
    【<b class='flag-5'>YOLOv5</b>】LabVIEW+TensorRT的<b class='flag-5'>yolov5</b><b class='flag-5'>部署</b>實戰(zhàn)(含源碼)

    如何使用OpenVINO C++ API部署FastSAM模型

    象的位置和邊界。本文將介紹如何使用 OpenVINO C++ API 部署 FastSAM 模型,以實現(xiàn)快速高效的語義分割。在前文中我們發(fā)表了《基于
    的頭像 發(fā)表于 11-17 09:53 ?1538次閱讀
    如何使用<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C++</b> API<b class='flag-5'>部署</b>FastSAM<b class='flag-5'>模型</b>

    C++中使OpenVINO工具包部署YOLOv5-Seg模型

    YOLOv5兼具速度和精度,工程化做的特別好,Git clone到本地即可在自己的數(shù)據(jù)集上實現(xiàn)目標檢測任務的訓練和推理,產(chǎn)業(yè)界中應用廣泛。開源社區(qū)對YOLOv5支持實例分割的呼聲高漲,YOL
    的頭像 發(fā)表于 12-21 10:17 ?3511次閱讀
    <b class='flag-5'>在</b><b class='flag-5'>C++</b><b class='flag-5'>中使</b>用<b class='flag-5'>OpenVINO</b><b class='flag-5'>工具包</b><b class='flag-5'>部署</b><b class='flag-5'>YOLOv5</b>-Seg<b class='flag-5'>模型</b>

    怎樣使用PyTorch Hub去加載YOLOv5模型

    Python>=3.7.0環(huán)境中安裝requirements.txt,包括PyTorch>=1.7。模型和數(shù)據(jù)集從最新的 YOLOv5版本自動下載。簡單示例此示例從
    發(fā)表于 07-22 16:02

    如何在OpenVINO工具包中使用帶推理引擎的blob?

    無法確定如何在OpenVINO?工具包中使用帶推理引擎的 blob。
    發(fā)表于 08-15 07:17

    英特爾獨立顯卡上部署YOLOv5 v7.0版實時實例分割模型

    本文將介紹基于 OpenVINO 英特爾獨立顯卡上部署 YOLOv5 實時實例分割模型的全流
    的頭像 發(fā)表于 12-20 11:32 ?5466次閱讀

    使用旭日X3派的BPU部署Yolov5

    本次主要介紹旭日x3的BPU中部署yolov5。首先在ubuntu20.04安裝yolov5,并運行yolov5并使用pytoch的pt
    的頭像 發(fā)表于 04-26 14:20 ?1569次閱讀
    使用旭日X3派的BPU<b class='flag-5'>部署</b><b class='flag-5'>Yolov5</b>

    OpenVINO? C++ API編寫YOLOv8-Seg實例分割模型推理程序

    本文章將介紹使用 OpenVINO 2023.0 C++ API 開發(fā)YOLOv8-Seg 實例分割(Instance Segmentation)模型的 AI 推理程序。本文
    的頭像 發(fā)表于 06-25 16:09 ?2626次閱讀
    用<b class='flag-5'>OpenVINO</b>? <b class='flag-5'>C++</b> API編寫<b class='flag-5'>YOLOv</b>8-Seg實例分割<b class='flag-5'>模型</b>推理程序

    三種主流模型部署框架YOLOv8推理演示

    深度學習模型部署OpenVINO、ONNXRUNTIME、TensorRT三個主流框架,均支持Python與C++的SDK使用。對YOLOv5
    的頭像 發(fā)表于 08-06 11:39 ?3640次閱讀

    NNCF壓縮與量化YOLOv8模型OpenVINO部署測試

    OpenVINO2023版本衍生出了一個新支持工具包NNCF(Neural Network Compression Framework – 神經(jīng)網(wǎng)絡壓縮框架),通過對OpenVINO IR格式
    的頭像 發(fā)表于 11-20 10:46 ?2288次閱讀
    NNCF壓縮與量化<b class='flag-5'>YOLOv</b>8<b class='flag-5'>模型</b>與<b class='flag-5'>OpenVINO</b><b class='flag-5'>部署</b>測試

    基于QT5+OpenCV+OpenVINO C++的應用打包過程

    我用QT C++寫了一個YOLOv5模型推理演示應用。
    的頭像 發(fā)表于 01-26 10:17 ?2828次閱讀
    基于QT<b class='flag-5'>5+OpenCV+OpenVINO</b> <b class='flag-5'>C++</b>的應用打包過程

    yolov5訓練部署全鏈路教程

    m、YOLOv5l、YOLOv5x四個模型。YOLOv5相比YOLOv4而言,檢測平均精度降低
    的頭像 發(fā)表于 07-25 15:22 ?815次閱讀
    <b class='flag-5'>yolov5</b>訓練<b class='flag-5'>部署</b>全鏈路教程

    基于瑞芯微RK3576的 yolov5訓練部署教程

    s、YOLOv5m、YOLOv5l、YOLOv5x 四個模型。YOLOv5 相比YOLOv4 而
    的頭像 發(fā)表于 09-11 16:43 ?1853次閱讀
    基于瑞芯微RK3576的 <b class='flag-5'>yolov5</b>訓練<b class='flag-5'>部署</b>教程