18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)上的四大應(yīng)用

如意 ? 來(lái)源:CSDN ? 作者:呆呆的貓 ? 2020-08-24 16:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)上的應(yīng)用

計(jì)算機(jī)視覺(jué)中比較成功的深度學(xué)習(xí)的應(yīng)用,包括人臉識(shí)別,圖像問(wèn)答,物體檢測(cè),物體跟蹤。

人臉識(shí)別:

這里說(shuō)人臉識(shí)別中的人臉比對(duì),即得到一張人臉,與數(shù)據(jù)庫(kù)里的人臉進(jìn)行比對(duì);或同時(shí)給兩張人臉,判斷是不是同一個(gè)人。

這方面比較超前的是湯曉鷗教授,他們提出的DeepID算法在LWF上做得比較好。他們也是用卷積神經(jīng)網(wǎng)絡(luò),但在做比對(duì)時(shí),兩張人臉?lè)謩e提取了不同位置特征,然后再進(jìn)行互相比對(duì),得到最后的比對(duì)結(jié)果。最新的DeepID-3算法,在LWF達(dá)到了99.53%準(zhǔn)確度,與肉眼識(shí)別結(jié)果相差無(wú)幾。

圖片問(wèn)答問(wèn)題:

這是2014年左右興起的課題,即給張圖片同時(shí)問(wèn)個(gè)問(wèn)題,然后讓計(jì)算機(jī)回答。比如有一個(gè)辦公室靠海的圖片,然后問(wèn)“桌子后面有什么”,神經(jīng)網(wǎng)絡(luò)輸出應(yīng)該是“椅子和窗戶”。

深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)上的四大應(yīng)用

這一應(yīng)用引入了LSTM網(wǎng)絡(luò),這是一個(gè)專門設(shè)計(jì)出來(lái)具有一定記憶能力的神經(jīng)單元。特點(diǎn)是,會(huì)把某一個(gè)時(shí)刻的輸出當(dāng)作下一個(gè)時(shí)刻的輸入??梢哉J(rèn)為它比較適合語(yǔ)言等,有時(shí)間序列關(guān)系的場(chǎng)景。因?yàn)槲覀冊(cè)谧x一篇文章和句子的時(shí)候,對(duì)句子后面的理解是基于前面對(duì)詞語(yǔ)的記憶。

圖像問(wèn)答問(wèn)題是基于卷積神經(jīng)網(wǎng)絡(luò)和LSTM單元的結(jié)合,來(lái)實(shí)現(xiàn)圖像問(wèn)答。LSTM輸出就應(yīng)該是想要的答案,而輸入的就是上一個(gè)時(shí)刻的輸入,以及圖像的特征,及問(wèn)句的每個(gè)詞語(yǔ)。

物體檢測(cè)問(wèn)題:

① Region CNN

深度學(xué)習(xí)在物體檢測(cè)方面也取得了非常好的成果。2014年的Region CNN算法,基本思想是首先用一個(gè)非深度的方法,在圖像中提取可能是物體的圖形塊,然后深度學(xué)習(xí)算法根據(jù)這些圖像塊,判斷屬性和一個(gè)具體物體的位置。

深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)上的四大應(yīng)用

為什么要用非深度的方法先提取可能的圖像塊?因?yàn)樵谧鑫矬w檢測(cè)的時(shí)候,如果你用掃描窗的方法進(jìn)行物體監(jiān)測(cè),要考慮到掃描窗大小的不一樣,長(zhǎng)寬比和位置不一樣,如果每一個(gè)圖像塊都要過(guò)一遍深度網(wǎng)絡(luò)的話,這種時(shí)間是你無(wú)法接受的。

所以用了一個(gè)折中的方法,叫Selective Search。先把完全不可能是物體的圖像塊去除,只剩2000左右的圖像塊放到深度網(wǎng)絡(luò)里面判斷。那么取得的成績(jī)是AP是58.5,比以往幾乎翻了一倍。有一點(diǎn)不盡如人意的是,region CNN的速度非常慢,需要10到45秒處理一張圖片。

② Faster R-CNN方法

而且我在去年NIPS上,我們看到的有Faster R-CNN方法,一個(gè)超級(jí)加速版R-CNN方法。它的速度達(dá)到了每秒七幀,即一秒鐘可以處理七張圖片。技巧在于,不是用圖像塊來(lái)判斷是物體還是背景,而把整張圖像一起扔進(jìn)深度網(wǎng)絡(luò)里,讓深度網(wǎng)絡(luò)自行判斷哪里有物體,物體的方塊在哪里,種類是什么?

經(jīng)過(guò)深度網(wǎng)絡(luò)運(yùn)算的次數(shù)從原來(lái)的2000次降到一次,速度大大提高了。

Faster R-CNN提出了讓深度學(xué)習(xí)自己生成可能的物體塊,再用同樣深度網(wǎng)絡(luò)來(lái)判斷物體塊是否是背景?同時(shí)進(jìn)行分類,還要把邊界和給估計(jì)出來(lái)。

Faster R-CNN可以做到又快又好,在VOC2007上檢測(cè)AP達(dá)到73.2,速度也提高了兩三百倍。

③ YOLO

去年FACEBOOK提出來(lái)的YOLO網(wǎng)絡(luò),也是進(jìn)行物體檢測(cè),最快達(dá)到每秒鐘155幀,達(dá)到了完全實(shí)時(shí)。它讓一整張圖像進(jìn)入到神經(jīng)網(wǎng)絡(luò),讓神經(jīng)網(wǎng)絡(luò)自己判斷這物體可能在哪里,可能是什么。但它縮減了可能圖像塊的個(gè)數(shù),從原來(lái)Faster R-CNN的2000多個(gè)縮減縮減到了98個(gè)。

同時(shí)取消了Faster R-CNN里面的RPN結(jié)構(gòu),代替Selective Search結(jié)構(gòu)。YOLO里面沒(méi)有RPN這一步,而是直接預(yù)測(cè)物體的種類和位置。

YOLO的代價(jià)就是精度下降,在155幀的速度下精度只有52.7,45幀每秒時(shí)的精度是63.4。

④ SSD

在arXiv上出現(xiàn)的最新算法叫Single Shot MultiBox Detector,即SSD。

它是YOLO的超級(jí)改進(jìn)版,吸取了YOLO的精度下降的教訓(xùn),同時(shí)保留速度快的特點(diǎn)。它能達(dá)到58幀每秒,精度有72.1。速度超過(guò)Faster R-CNN 有8倍,但達(dá)到類似的精度。

物體跟蹤

所謂跟蹤,就是在視頻里面第一幀時(shí)鎖定感興趣的物體,讓計(jì)算機(jī)跟著走,不管怎么旋轉(zhuǎn)晃動(dòng),甚至躲在樹叢后面也要跟蹤。

深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)上的四大應(yīng)用

深度學(xué)習(xí)對(duì)跟蹤問(wèn)題有很顯著的效果。是第一在線用深度學(xué)習(xí)進(jìn)行跟蹤的文章,當(dāng)時(shí)超過(guò)了其它所有的淺層算法。

今年有越來(lái)越多深度學(xué)習(xí)跟蹤算法提出。去年十二月ICCV 2015上面,馬超提出的Hierarchical Convolutional Feature算法,在數(shù)據(jù)上達(dá)到最新的記錄。它不是在線更新一個(gè)深度學(xué)習(xí)網(wǎng)絡(luò),而是用一個(gè)大網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練,然后讓大網(wǎng)絡(luò)知道什么是物體什么不是物體。

將大網(wǎng)絡(luò)放在跟蹤視頻上面,然后再分析網(wǎng)絡(luò)在視頻上產(chǎn)生的不同特征,用比較成熟的淺層跟蹤算法來(lái)進(jìn)行跟蹤,這樣利用了深度學(xué)習(xí)特征學(xué)習(xí)比較好的好處,同時(shí)又利用了淺層方法速度較快的優(yōu)點(diǎn)。效果是每秒鐘10幀,同時(shí)精度破了記錄。

最新的跟蹤成果是基于Hierarchical Convolutional Feature,由一個(gè)韓國(guó)的科研組提出的MDnet。它集合了前面兩種深度算法的集大成,首先離線的時(shí)候有學(xué)習(xí),學(xué)習(xí)的不是一般的物體檢測(cè),也不是ImageNet,學(xué)習(xí)的是跟蹤視頻,然后在學(xué)習(xí)視頻結(jié)束后,在真正在使用網(wǎng)絡(luò)的時(shí)候更新網(wǎng)絡(luò)的一部分。這樣既在離線的時(shí)候得到了大量的訓(xùn)練,在線的時(shí)候又能夠很靈活改變自己的網(wǎng)絡(luò)。

基于嵌入式系統(tǒng)的深度學(xué)習(xí)

回到ADAS問(wèn)題(慧眼科技的主業(yè)),它完全可以用深度學(xué)習(xí)算法,但對(duì)硬件平臺(tái)有比較高的要求。在汽車上不太可能把一臺(tái)電腦放上去,因?yàn)楣β适莻€(gè)問(wèn)題,很難被市場(chǎng)所接受。

現(xiàn)在的深度學(xué)習(xí)計(jì)算主要是在云端進(jìn)行,前端拍攝照片,傳給后端的云平臺(tái)處理。但對(duì)于ADAS而言,無(wú)法接受長(zhǎng)時(shí)間的數(shù)據(jù)傳輸?shù)?,或許發(fā)生事故后,云端的數(shù)據(jù)還沒(méi)傳回來(lái)。

那是否可以考慮NVIDIA推出的嵌入式平臺(tái)?NVIDIA推出的嵌入式平臺(tái),其運(yùn)算能力遠(yuǎn)遠(yuǎn)強(qiáng)過(guò)了所有主流的嵌入式平臺(tái),運(yùn)算能力接近主流的頂級(jí)CPU,如臺(tái)式機(jī)的i7。那么慧眼科技在做工作就是要使得深度學(xué)習(xí)算法,在嵌入式平臺(tái)有限的資源情況下能夠達(dá)到實(shí)時(shí)效果,而且精度幾乎沒(méi)有減少。

具體做法是,首先對(duì)網(wǎng)絡(luò)進(jìn)行縮減,可能是對(duì)網(wǎng)絡(luò)的結(jié)構(gòu)縮減,由于識(shí)別場(chǎng)景不同,也要進(jìn)行相應(yīng)的功能性縮減;另外要用最快的深度檢測(cè)算法,結(jié)合最快的深度跟蹤算法,同時(shí)自己研發(fā)出一些場(chǎng)景分析算法。三者結(jié)合在一起,目的是減少運(yùn)算量,減少檢測(cè)空間的大小。在這種情況下,在有限資源上實(shí)現(xiàn)了使用深度學(xué)習(xí)算法,但精度減少的非常少。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7728

    瀏覽量

    92430
  • 人臉識(shí)別
    +關(guān)注

    關(guān)注

    77

    文章

    4104

    瀏覽量

    87233
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5587

    瀏覽量

    123748
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    STM32計(jì)算機(jī)視覺(jué)開發(fā)套件:B-CAMS-IMX攝像頭模塊技術(shù)解析

    CMOS RGB圖像傳感器、ISM330DLC慣性運(yùn)動(dòng)單元和VL53L5CX ToF傳感器。B-CAMS-IMX可用于任何具有MIPI CSI-2? 接口(帶22引腳FFC連接器)的STM32開發(fā)板,輕松STM32微控制器和微處理器實(shí)現(xiàn)全功能
    的頭像 發(fā)表于 10-20 09:46 ?205次閱讀
    STM32<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>開發(fā)套件:B-CAMS-IMX攝像頭模塊技術(shù)解析

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    人士而言往往難以理解,人們也常常誤以為需要扎實(shí)的編程技能才能真正掌握并合理使用這項(xiàng)技術(shù)。事實(shí),這種印象忽視了該技術(shù)為機(jī)器視覺(jué)(乃至生產(chǎn)自動(dòng)化)帶來(lái)的潛力,因?yàn)?b class='flag-5'>深度學(xué)習(xí)并非只屬于
    的頭像 發(fā)表于 09-10 17:38 ?545次閱讀
    如何在機(jī)器<b class='flag-5'>視覺(jué)</b>中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    易控智駕榮獲計(jì)算機(jī)視覺(jué)頂會(huì)CVPR 2025認(rèn)可

    近日,2025年國(guó)際計(jì)算機(jī)視覺(jué)與模式識(shí)別頂級(jí)會(huì)議(IEEE/CVF Conference on Computer Vision and Pattern Recognition,CVPR 2025)美國(guó)田納西州納什維爾召開。
    的頭像 發(fā)表于 07-29 16:54 ?858次閱讀

    Blue Lion超級(jí)計(jì)算機(jī)將在NVIDIA Vera Rubin運(yùn)行

    德國(guó)萊布尼茨超算中心(LRZ)將迎來(lái)全新超級(jí)計(jì)算機(jī) Blue Lion,其算力比該中心現(xiàn)有的 SuperMUC-NG 高性能計(jì)算機(jī)提升了約 30 倍。這臺(tái)新的超級(jí)計(jì)算機(jī)將在 NVIDIA Vera Rubin 架構(gòu)
    的頭像 發(fā)表于 06-12 15:39 ?708次閱讀

    一文帶你了解工業(yè)計(jì)算機(jī)尺寸

    一項(xiàng)艱巨的任務(wù)。本博客將指導(dǎo)您了解關(guān)鍵的工業(yè)計(jì)算機(jī)尺寸、使用案例。關(guān)鍵工業(yè)計(jì)算機(jī)外形要素及其使用案例一、工業(yè)微型PC尺寸范圍:寬度:100毫米-180毫米深度:10
    的頭像 發(fā)表于 04-24 13:35 ?633次閱讀
    一文帶你了解工業(yè)<b class='flag-5'>計(jì)算機(jī)</b>尺寸

    英飛凌邊緣AI平臺(tái)通過(guò)Ultralytics YOLO模型增加對(duì)計(jì)算機(jī)視覺(jué)的支持

    對(duì)計(jì)算機(jī)視覺(jué)的支持,擴(kuò)大了當(dāng)前對(duì)音頻、雷達(dá)和其他時(shí)間序列信號(hào)數(shù)據(jù)的支持范圍。增加這項(xiàng)支持后,該平臺(tái)將能夠用于開發(fā)低功耗、低內(nèi)存的邊緣AI視覺(jué)模型。這將給諸多應(yīng)用領(lǐng)域的機(jī)器
    的頭像 發(fā)表于 03-11 15:11 ?587次閱讀
    英飛凌邊緣AI平臺(tái)通過(guò)Ultralytics YOLO模型增加對(duì)<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>的支持

    Arm KleidiCV與OpenCV集成助力移動(dòng)端計(jì)算機(jī)視覺(jué)性能優(yōu)化

    等多種應(yīng)用中。然而,這些計(jì)算機(jī)視覺(jué)應(yīng)用可能很難實(shí)現(xiàn)最優(yōu)化的延遲性能和處理速度,特別是在內(nèi)存大小、電池容量和處理能力有限的移動(dòng)設(shè)備難度更高。 而 Arm KleidiCV 便能在其中大顯身手。該開源庫(kù)利用了最新 Arm CPU
    的頭像 發(fā)表于 02-24 10:15 ?782次閱讀

    Quantinuum“Reimei”量子計(jì)算機(jī)RIKEN正式運(yùn)行

    )成功安裝并全面投入運(yùn)行。 此次合作中,RIKEN為“Reimei”量子計(jì)算機(jī)提供了世界級(jí)的基礎(chǔ)設(shè)施,包括為其量身定制的設(shè)計(jì)、準(zhǔn)備及交付工作。這一里程碑式的成就不僅標(biāo)志著Quantinuum量子計(jì)算領(lǐng)域的持續(xù)突破,也預(yù)示著未來(lái)
    的頭像 發(fā)表于 02-17 10:21 ?685次閱讀

    AR和VR中的計(jì)算機(jī)視覺(jué)

    ):計(jì)算機(jī)視覺(jué)引領(lǐng)混合現(xiàn)實(shí)體驗(yàn)增強(qiáng)現(xiàn)實(shí)(AR)和虛擬現(xiàn)實(shí)(VR)正在徹底改變我們與外部世界的互動(dòng)方式。即便是引人入勝的沉浸式
    的頭像 發(fā)表于 02-08 14:29 ?1894次閱讀
    AR和VR中的<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>

    云端超級(jí)計(jì)算機(jī)使用教程

    云端超級(jí)計(jì)算機(jī)是一種基于云計(jì)算的高性能計(jì)算服務(wù),它將大量計(jì)算資源和存儲(chǔ)資源集中在一起,通過(guò)網(wǎng)絡(luò)向用戶提供按需的計(jì)算服務(wù)。下面,AI部落小編為
    的頭像 發(fā)表于 12-17 10:19 ?755次閱讀

    工業(yè)中使用哪種計(jì)算機(jī)?

    工業(yè)環(huán)境中,工控機(jī)被廣泛使用。這些計(jì)算機(jī)的設(shè)計(jì)可承受極端溫度、灰塵和振動(dòng)等惡劣條件。它們比標(biāo)準(zhǔn)消費(fèi)類計(jì)算機(jī)更耐用、更可靠。工業(yè)計(jì)算機(jī)可控制機(jī)器、監(jiān)控流程并實(shí)時(shí)收集數(shù)據(jù)。其堅(jiān)固的結(jié)構(gòu)和
    的頭像 發(fā)表于 11-29 14:07 ?931次閱讀
    工業(yè)中使用哪種<b class='flag-5'>計(jì)算機(jī)</b>?

    量子計(jì)算機(jī)與普通計(jì)算機(jī)工作原理的區(qū)別

    超越世界最強(qiáng)大的超級(jí)計(jì)算機(jī),完成以前不可想象的任務(wù)!這意味著量子計(jì)算機(jī)可能會(huì)徹底改變我們的生活。 本文中,我們將先了解普通計(jì)算機(jī)的工作原
    的頭像 發(fā)表于 11-24 11:00 ?2236次閱讀
    量子<b class='flag-5'>計(jì)算機(jī)</b>與普通<b class='flag-5'>計(jì)算機(jī)</b>工作原理的區(qū)別

    pcie深度學(xué)習(xí)中的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強(qiáng)大的計(jì)算能力來(lái)訓(xùn)練。傳統(tǒng)的CPU計(jì)算資源有限,難以滿足深度學(xué)習(xí)
    的頭像 發(fā)表于 11-13 10:39 ?1692次閱讀

    工業(yè)計(jì)算機(jī)類型介紹

    工業(yè)領(lǐng)域沒(méi)有計(jì)算機(jī)的世界就像沒(méi)有管弦樂(lè)隊(duì)的交響樂(lè),缺乏實(shí)現(xiàn)最佳性能所需的和諧和精確度。計(jì)算機(jī)徹底改變了工業(yè)的運(yùn)作方式,將效率、準(zhǔn)確性和創(chuàng)新推向了新的高度。事實(shí),根據(jù)最近在印度進(jìn)行的一項(xiàng)研究
    的頭像 發(fā)表于 11-04 15:56 ?878次閱讀
    工業(yè)<b class='flag-5'>計(jì)算機(jī)</b>類型介紹

    【小白入門必看】一文讀懂深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)技術(shù)及學(xué)習(xí)路線

    一、什么是計(jì)算機(jī)視覺(jué)計(jì)算機(jī)視覺(jué),其實(shí)就是教機(jī)器怎么像我們?nèi)艘粯樱脭z像頭看看周圍的世界,然后理解它。比如說(shuō),它能認(rèn)出這是個(gè)蘋果,或者那邊有輛車。除此之外,還能把拍到的照片或者視頻轉(zhuǎn)換
    的頭像 發(fā)表于 10-31 17:00 ?1666次閱讀
    【小白入門必看】一文讀懂<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>技術(shù)及<b class='flag-5'>學(xué)習(xí)</b>路線