18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深度學習中動作識別網絡學習

英特爾物聯(lián)網 ? 來源:英特爾物聯(lián)網 ? 作者:英特爾物聯(lián)網 ? 2021-06-25 10:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

動作識別網絡

深度學習在人體動作識別領域有兩類主要的網絡,一類是基于姿態(tài)評估,基于關鍵點實現(xiàn)的動作識別網絡;另外一類是直接預測的動作識別網絡。關于姿態(tài)評估相關的網絡模型應用,我們在前面的文章中已經介紹過了。OpenVINO2021.2版本中支持的動作識別網絡都不是基于關鍵點輸出的,而是基于Box直接預測,當前支持動作識別的預訓練模型與識別的動作數(shù)目支持列表如下:

12dd20c8-d50f-11eb-9e57-12bb97331649.png

表-1

這些網絡的輸出都是基于SSD檢測頭實現(xiàn)對象檢測與動作預測。

輸入與輸出格式

以person-detection-action-recognition-0005模型為例說明它們的輸入與輸出數(shù)據(jù)格式支持,我也不知道什么原因(個人猜測因為Caffe框架的原因),網絡的輸出居然都是SSD原始檢測頭,怎么解析,我有妙招,稍后送上!先看一下輸入與輸出格式說明:

輸入格式:

格式 NCHW=[1x3x400x680] ,Netron實際查看:

注意:OpenVINO2021.2安裝之后的文檔上格式說明是NHWC

輸出格式:

輸出有七個分支頭的數(shù)據(jù),它們的名稱跟維度格式列表如下:

12f04c16-d50f-11eb-9e57-12bb97331649.png

表-2

關于輸出格式的解釋,首先是num_priors值是多少,骨干網絡到SSD輸出頭,是實現(xiàn)了16倍的降采樣,最終輸出的h x w=25x43然后每個特征點預測4個PriorBox, 每個特征點預測動作,總計有三類的動作,所以動作預測輸出為: [b, 3, h, w] = [1x3x25x43],總計PriorBoxes數(shù)目為:num_priors=25x43x4=4300,這些都是SSD檢測頭的原始輸出,沒有非最大抑制,沒有經過轉換處理,所以想直接解析它們對開發(fā)應用的人來說是一個大麻煩!

輸出數(shù)據(jù)解析與處理問題

person-detection-action-recognition-0005網絡推理之后的輸出數(shù)據(jù)解析跟后處理特別的復雜,怎么解析原始輸出頭是個技術活,我從示例代碼中提取跟整理出來兩個C++文件,它們是:

action_detector.h

cnn.h

以及它們的實現(xiàn)文件:

action_detector.cpp

cnn.cpp

這個其中最重要的就是有個ActionDetection類,它有幾個方法,分別是:

void enqueue(const cv::Mat &frame)

void submitRequest()

void wait()

DetectedActions fetchResults()

這幾個方法的解釋分別如下:

enqueue方法的就是實現(xiàn)了推理請求創(chuàng)建與圖像數(shù)據(jù)的輸入設置,它的代碼實現(xiàn)如下:

if (!request) {

request = net_.CreateInferRequestPtr();

}

width_ = static_cast《float》(frame.cols);

height_ = static_cast《float》(frame.rows);

Blob::Ptr inputBlob = request-》GetBlob(input_name_);

matU8ToBlob《uint8_t》(frame, inputBlob);

enqueued_frames_ = 1;

submitRequest方法,就是執(zhí)行推理,支持同步與異步推理執(zhí)行模型,它的代碼實現(xiàn)如下:

if (request == nullptr) return;

if (isAsync) {

request-》StartAsync();

}

else {

request-》Infer();

}

wait方法,當同步推理時候無需調用,異步推理調用

fetchResults方法,該方法是推理過程中最復雜的部分,負責解析輸出的七個分支數(shù)據(jù),生成Box與action標簽預測。簡單的說它的執(zhí)行過程是這樣,首先獲取輸出的七個輸出數(shù)據(jù),然后轉換為基于Mat的數(shù)據(jù),然后循環(huán)每個特征圖的特征點預測Box與置信得分,大于閾值的置信得分對應的預測Box與PriorBox計算真實的BOX坐標,同時閾值化處理Action的置信得分,最終對結果完整非最大抑制之后輸出,得到數(shù)據(jù)結構為:

struct DetectedAction {

/** @brief BBox of detection */

cv::Rect rect;

/** @brief Action label */

int label;

/** @brief Confidence of detection */

float detection_conf;

/** @brief Confidence of predicted action */

float action_conf;

這樣就完成了對輸出的數(shù)據(jù)解析。

這個就是上述四個相關依賴文件,我已經把其他不相關的或者非必要的依賴全部去掉,基于這四個相關文件,就可以實現(xiàn)對表-1中動作識別模型的推理與解析輸出顯示。

動作識別代碼演示

動作識別代碼演示基于person-detection-action-recognition-0005網絡模型完成,該模型是基于室內場景數(shù)據(jù)訓練生成的,適合于教育智慧教室應用場景。首先需要初始化動作檢測類與初始化推理引擎加載,然后配置動作檢測類的相關參數(shù),這些參數(shù)主要包括以下:

- 模型的權重文件路徑

- 推理引擎的計算設備支持

- 對象檢測閾值

- 動作預測閾值

- 支持動作類別數(shù)目

- 是否支持異步推理

等等。

配置完成之后設置與初始化ActionDetection類,然后就可以直接調用上述提到幾個類方法完成整個推理與輸出,根據(jù)輸出結果繪制與顯示即可,這部分的代碼如下:

cv::Mat frame = cv::imread(“D:/action_001.png”);

InferenceEngine::Core ie;

std::unique_ptr《AsyncDetection《DetectedAction》》 action_detector;

// Load action detector

ActionDetectorConfig action_config(model_xml);

action_config.deviceName = “CPU”;

action_config.ie = ie;

action_config.is_async = false;

action_config.detection_confidence_threshold = 0.1f;

action_config.action_confidence_threshold = 0.1f;

action_config.num_action_classes = 3;

action_detector.reset(new ActionDetection(action_config));

action_detector-》enqueue(frame);

action_detector-》submitRequest();

DetectedActions actions = action_detector-》fetchResults();

std::cout 《《 actions.size() 《《 std::endl;

for (int i = 0; i 《 actions.size(); i++) {

std::cout 《《 actions[i].rect 《《 std::endl;

std::cout 《《 actions[i].label 《《 std::endl;

cv::rectangle(frame, actions[i].rect, cv::Scalar(0, 0, 255), 2, 8, 0);

putText(frame, action_text_labels[actions[i].label], actions[i].rect.tl(), cv::FONT_HERSHEY_SIMPLEX, 0.75, cv::Scalar(0, 0, 255), 2, 8);

}

cv::imshow(“動作識別演示”, frame);

cv::waitKey(0);

return 0;

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深度學習
    +關注

    關注

    73

    文章

    5587

    瀏覽量

    123748

原文標題:OpenVINO? 室內動作識別

文章出處:【微信號:英特爾物聯(lián)網,微信公眾號:英特爾物聯(lián)網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何在機器視覺中部署深度學習神經網絡

    圖 1:基于深度學習的目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學習時,經常會出現(xiàn)“神經網絡
    的頭像 發(fā)表于 09-10 17:38 ?543次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學習</b>神經<b class='flag-5'>網絡</b>

    深度學習遇上嵌入式資源困境,特征空間如何破局?

    多層神經網絡的非線性變換擬合規(guī)律,理論上幾乎可以描述和模擬一切規(guī)律,但實際上該過程效率極低 —— 其計算復雜度往往呈指數(shù)級增長。這一特性使得深度學習與端側設備的資源約束存在根本性矛盾,導致其在端側 AI 實施過程
    發(fā)表于 07-14 14:50 ?1040次閱讀
    當<b class='flag-5'>深度</b><b class='flag-5'>學習</b>遇上嵌入式資源困境,特征空間如何破局?

    深度學習賦能:正面吊車載箱號識別系統(tǒng)的核心技術

    在現(xiàn)代物流與智慧港口建設,集裝箱的高效精準識別是提升作業(yè)效率的關鍵環(huán)節(jié)?;贠CR+AI深度學習技術的正面吊車載箱號識別系統(tǒng),憑借99%以
    的頭像 發(fā)表于 05-07 10:10 ?358次閱讀

    嵌入式AI技術之深度學習:數(shù)據(jù)樣本預處理過程中使用合適的特征變換對深度學習的意義

    ? 作者:蘇勇Andrew 使用神經網絡實現(xiàn)機器學習,網絡的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經網絡構成深度
    的頭像 發(fā)表于 04-02 18:21 ?1188次閱讀

    軍事應用深度學習的挑戰(zhàn)與機遇

    ,并廣泛介紹了深度學習在兩個主要軍事應用領域的應用:情報行動和自主平臺。最后,討論了相關的威脅、機遇、技術和實際困難。主要發(fā)現(xiàn)是,人工智能技術并非無所不能,需要謹慎應用,同時考慮到其局限性、網絡安全威脅以及
    的頭像 發(fā)表于 02-14 11:15 ?736次閱讀

    BP神經網絡深度學習的關系

    BP神經網絡深度學習之間存在著密切的關系,以下是對它們之間關系的介紹: 一、BP神經網絡的基本概念 BP神經網絡,即反向傳播神經
    的頭像 發(fā)表于 02-12 15:15 ?1211次閱讀

    GPU在深度學習的應用 GPUs在圖形設計的作用

    隨著人工智能技術的飛速發(fā)展,深度學習作為其核心部分,已經成為推動技術進步的重要力量。GPU(圖形處理單元)在深度學習扮演著至關重要的角色,
    的頭像 發(fā)表于 11-19 10:55 ?2006次閱讀

    深度學習的卷積神經網絡模型

    深度學習近年來在多個領域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經網絡作為
    的頭像 發(fā)表于 11-15 14:52 ?1101次閱讀

    深度學習RNN的優(yōu)勢與挑戰(zhàn)

    循環(huán)神經網絡(RNN)是深度學習領域中處理序列數(shù)據(jù)的基石。它們通過在每個時間步長上循環(huán)傳遞信息,使得網絡能夠捕捉時間序列數(shù)據(jù)的長期依賴關系
    的頭像 發(fā)表于 11-15 09:55 ?1683次閱讀

    NPU在深度學習的應用

    隨著人工智能技術的飛速發(fā)展,深度學習作為其核心驅動力之一,已經在眾多領域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經網絡處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?2605次閱讀

    pcie在深度學習的應用

    深度學習模型通常需要大量的數(shù)據(jù)和強大的計算能力來訓練。傳統(tǒng)的CPU計算資源有限,難以滿足深度學習的需求。因此,GPU(圖形處理單元)和TPU(張量處理單元)等專用硬件應運而生,它們通過
    的頭像 發(fā)表于 11-13 10:39 ?1691次閱讀

    深度學習框架的LSTM神經網絡實現(xiàn)

    長短期記憶(LSTM)網絡是一種特殊的循環(huán)神經網絡(RNN),能夠學習長期依賴信息。與傳統(tǒng)的RNN相比,LSTM通過引入門控機制來解決梯度消失和梯度爆炸問題,使其在處理序列數(shù)據(jù)時更為有效。在自然語言
    的頭像 發(fā)表于 11-13 10:16 ?1429次閱讀

    Pytorch深度學習訓練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學習訓練。
    的頭像 發(fā)表于 10-28 14:05 ?917次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學習</b>訓練的方法

    GPU深度學習應用案例

    GPU在深度學習的應用廣泛且重要,以下是一些GPU深度學習應用案例: 一、圖像識別 圖像
    的頭像 發(fā)表于 10-27 11:13 ?1967次閱讀

    激光雷達技術的基于深度學習的進步

    信息。這使得激光雷達在自動駕駛、無人機、機器人等領域具有廣泛的應用前景。 二、深度學習技術的發(fā)展 深度學習是機器學習的一個分支,它通過模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1352次閱讀