18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種用于視覺定位的2D-3D匹配方法GAM

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-02-16 10:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

主要內(nèi)容:

提出了一種新的2D-3D匹配方法,幾何輔助匹配(GAM),使用外觀信息和幾何上下文來改進(jìn)2D-3D特征匹配,可以在保持高精度的同時(shí)增強(qiáng)2D-3D匹配的recall,將GAM插入到分層視覺定位pipeline中,表明GAM可以有效地提高定位的魯棒性和準(zhǔn)確性,其實(shí)驗(yàn)表明,GAM可以找到比手工啟發(fā)式和學(xué)習(xí)的方法更正確的匹配,在多個(gè)視覺定位數(shù)據(jù)集上獲得了最先進(jìn)的結(jié)果。

Contributions:

提出了GAM,首先根據(jù)視覺外觀為每個(gè)2D點(diǎn)建立多個(gè)候選匹配,然后根據(jù)幾何上下文過濾不正確的匹配。

提出了一種稱為BMNet的深度神經(jīng)網(wǎng)絡(luò)來處理多對(duì)多候選匹配,它可以預(yù)測(cè)每個(gè)2D-3D匹配的幾何先驗(yàn)并輸出全局最優(yōu)匹配集。

提出了一種具有新場(chǎng)景檢索策略的分層視覺定位方法,進(jìn)一步提高了姿態(tài)估計(jì)的魯棒性。

所提出的定位方法在多個(gè)數(shù)據(jù)集上優(yōu)于最先進(jìn)的方法。

幾何輔助匹配:

583fcf36-ad34-11ed-bfe3-dac502259ad0.png

58593cbe-ad34-11ed-bfe3-dac502259ad0.png

網(wǎng)絡(luò)架構(gòu):

5877fa6e-ad34-11ed-bfe3-dac502259ad0.png

589dd0e0-ad34-11ed-bfe3-dac502259ad0.png

58b3f028-ad34-11ed-bfe3-dac502259ad0.png

Hungarian Pooling:

如果直接訓(xùn)練g(g;θ),網(wǎng)絡(luò)參數(shù)將很難學(xué)習(xí),因?yàn)閹缀我恢滦钥赡芘c監(jiān)督?jīng)_突,如下圖所示。

58cad842-ad34-11ed-bfe3-dac502259ad0.png

2D圖像點(diǎn)與在3D空間中接近的兩個(gè)3D點(diǎn)匹配,在相同的相機(jī)姿勢(shì)下,它們可能都有小的重投影誤差,網(wǎng)絡(luò)易于根據(jù)提取的幾何特征為它們生成相似的權(quán)重,這兩種對(duì)應(yīng)關(guān)系都被認(rèn)為是幾何一致的。

然而其中只有一個(gè)是inlier,其余的則是outlier,多個(gè)對(duì)應(yīng)具有相似的幾何特征但具有不同標(biāo)簽的這種差異使得網(wǎng)絡(luò)難以收斂。

為了解決這個(gè)問題,將匈牙利算法引入到網(wǎng)絡(luò)中進(jìn)行端到端訓(xùn)練。匈牙利算法可以找到全局最優(yōu)的一對(duì)一匹配,因?yàn)橹贿x擇了兩個(gè)對(duì)應(yīng)關(guān)系中的一個(gè),所以可以消除幾何一致性和監(jiān)督之間的差異。

基于由g(g;θ)預(yù)測(cè)的權(quán)重向量w和二分圖g,權(quán)重矩陣w被構(gòu)造為:

58e217c8-ad34-11ed-bfe3-dac502259ad0.png

其中W的未填充元素被設(shè)置為0,然后將匈牙利算法應(yīng)用于該權(quán)重矩陣W獲得匹配M的最大權(quán)重。分配向量s由下列公式獲得:

58efcd46-ad34-11ed-bfe3-dac502259ad0.png

由于輸出邊緣來自輸入邊緣的子集,引入匈牙利算法的層可以被視為一個(gè)特殊的采樣層,稱之為匈牙利池,端到端訓(xùn)練中使用的反向傳播公式如下:

590280bc-ad34-11ed-bfe3-dac502259ad0.png

分層定位pipeline:

59195f26-ad34-11ed-bfe3-dac502259ad0.png

對(duì)于查詢圖像,提取其全局特征和局部特征,全局特征用于粗略定位以確定要匹配的3D點(diǎn)集,提取的局部特征和結(jié)合相應(yīng)描述符的3D點(diǎn)集都被送到GAM中以獲得全局最優(yōu)2D-3D對(duì)應(yīng)。

整個(gè)定位過程分為三個(gè)模塊,即場(chǎng)景檢索、2D-3D特征匹配和先驗(yàn)引導(dǎo)姿態(tài)估計(jì)。

場(chǎng)景檢索:

594184ba-ad34-11ed-bfe3-dac502259ad0.png

596cbdce-ad34-11ed-bfe3-dac502259ad0.png

2D-3D特征匹配:

根據(jù)場(chǎng)景檢索的順序執(zhí)行GAM并輸出匹配的2D-3D對(duì)應(yīng),對(duì)于第k個(gè)場(chǎng)景597d6ad4-ad34-11ed-bfe3-dac502259ad0.png,獲取其3D點(diǎn)和相應(yīng)的描述子來構(gòu)建3D特征集,在從查詢圖像提取的2D局部特征和3D特征之間執(zhí)行GAM,輸出匹配M的最大權(quán)重,根據(jù)歐氏距離執(zhí)行kNN比率匹配,當(dāng)描述子被歸一化時(shí),這可以通過矩陣運(yùn)算有效地實(shí)現(xiàn)。

先驗(yàn)引導(dǎo)的姿態(tài)估計(jì):

由于M中仍然存在一些錯(cuò)誤匹配,在RANSAC循環(huán)中應(yīng)用PnP解算器,在RANSAC loop中,采樣2D-3D對(duì)應(yīng)的概率由BMNet預(yù)測(cè)的似然決定,這使得能夠以更大的機(jī)會(huì)對(duì)可能的inlier進(jìn)行采樣。

實(shí)驗(yàn):

首先進(jìn)行了2D-3D匹配實(shí)驗(yàn),表明GAM以比手工制作的方法和學(xué)習(xí)方法更高的精度找到更多的真實(shí)匹配。

數(shù)據(jù)集:MegaDepth數(shù)據(jù)集中選擇一個(gè)位置作為2D-3D匹配評(píng)估的測(cè)試數(shù)據(jù)集。

將GAM與傳統(tǒng)手工制作方法和學(xué)習(xí)匹配方法進(jìn)行了比較 使用最近鄰(NN)匹配器從描述符空間中的每個(gè)2D點(diǎn)的所有3D點(diǎn)中找到最近鄰,手工制作的異常值剔除方法包括比率測(cè)試(ratio)、距離閾值(distance)和彼此最近的鄰居(cross check),因?yàn)闆]有其他基于學(xué)習(xí)的方法直接用于2D-3D特征匹配,因此將最近提出的一些在2D-2D匹配中表現(xiàn)良好的方法遷移到2D-3D進(jìn)行比較,將LGCNet和OANet的輸入從2D-2D對(duì)應(yīng)替換為2D3D對(duì)應(yīng),即LGCNet-2D3D和OANet2D3D

598c397e-ad34-11ed-bfe3-dac502259ad0.png

評(píng)估GAM在視覺定位方面的有效性以及提出的視覺定位框架: 數(shù)據(jù)集:Aachen Day-Night

599b47a2-ad34-11ed-bfe3-dac502259ad0.png

與SOTA定位方法的比較: 數(shù)據(jù)集:Cambridge Landmarks 和Aachen Day-Night

59b3d696-ad34-11ed-bfe3-dac502259ad0.png59cbcd96-ad34-11ed-bfe3-dac502259ad0.png

總結(jié):


提出了一種用于視覺定位的2D-3D匹配方法GAM,同時(shí)使用外觀信息和幾何上下文來提高匹配性能,在保持高精度的同時(shí)提高了2D-3D匹配的召回率,其引入了一種新的二部匹配神經(jīng)網(wǎng)絡(luò)BMNet以提取2D-3D對(duì)應(yīng)的幾何特征,并可以學(xué)習(xí)全局幾何一致性以預(yù)測(cè)每個(gè)對(duì)應(yīng)的真實(shí)匹配的可能性,還將匈牙利算法集成到BMNet中作為一個(gè)特殊的池層以端到端的方式找到最大權(quán)重匹配,使得定位能夠獲得更正確的匹配從而提高了定位的魯棒性和準(zhǔn)確性。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4820

    瀏覽量

    106232
  • gam
    gam
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    7414
  • 匹配器
    +關(guān)注

    關(guān)注

    0

    文章

    6

    瀏覽量

    5828

原文標(biāo)題:用幾何信息來輔助基于特征的視覺定位(arxiv 2022)

文章出處:【微信號(hào):3D視覺工坊,微信公眾號(hào):3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    季豐電子邀您相約2025國際3D視覺感知與應(yīng)用大會(huì)

    9月20日 - 21日,國際3D視覺感知與應(yīng)用大會(huì)將在蘇州太湖國際會(huì)議中心盛大啟幕,大會(huì)議題涵蓋3D成像與測(cè)量、3D視覺、
    的頭像 發(fā)表于 09-08 15:03 ?623次閱讀

    iTOF技術(shù),多樣化的3D視覺應(yīng)用

    視覺傳感器對(duì)于機(jī)器信息獲取至關(guān)重要,正在從二維(2D)發(fā)展到三維(3D),在某些方面模仿并超越人類的視覺能力,從而推動(dòng)創(chuàng)新應(yīng)用。3D
    發(fā)表于 09-05 07:24

    翌視科技3D視覺再升級(jí)

    近日,2025翌視科技LVM3000系列新品發(fā)布會(huì)以線上直播形式舉行,超萬名合作伙伴共同見證國產(chǎn)3D視覺技術(shù)的突破性進(jìn)展。此次發(fā)布的LVM3000系列不僅展現(xiàn)了其“超規(guī)格” 實(shí)力,更宣告了國產(chǎn)3D
    的頭像 發(fā)表于 08-12 14:44 ?1404次閱讀

    3D視覺引領(lǐng)工業(yè)變革

    隨著工業(yè)智能化的推進(jìn),3D視覺技術(shù)正為制造業(yè)帶來變革。市場(chǎng)規(guī)模逐年擴(kuò)大,技術(shù)應(yīng)用與市場(chǎng)競(jìng)爭日益激烈。
    的頭像 發(fā)表于 07-07 11:08 ?344次閱讀
    <b class='flag-5'>3D</b><b class='flag-5'>視覺</b>引領(lǐng)工業(yè)變革

    一種用于動(dòng)態(tài)環(huán)境的實(shí)時(shí)RGB-D SLAM系統(tǒng)

    了UP-SLAM,這是一種用于動(dòng)態(tài)環(huán)境的實(shí)時(shí)RGB-D SLAM系統(tǒng)。實(shí)驗(yàn)結(jié)果表明,UP-SLAM在定位精度方面(高出59.8%)和渲染質(zhì)量方面(峰值信噪比高出4.57分貝)均優(yōu)于最
    的頭像 發(fā)表于 07-04 15:14 ?752次閱讀
    <b class='flag-5'>一種</b>適<b class='flag-5'>用于</b>動(dòng)態(tài)環(huán)境的實(shí)時(shí)RGB-<b class='flag-5'>D</b> SLAM系統(tǒng)

    NW2-05D05DR3 NW2-05D05DR3

    電子發(fā)燒友網(wǎng)為你提供AIPULNION(AIPULNION)NW2-05D05DR3相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有NW2-05D05DR3的引腳圖、接線圖、封裝手冊(cè)、中文資料、英文資料,NW2-05D05DR3真值表,NW
    發(fā)表于 03-20 18:30
    NW<b class='flag-5'>2-05D05DR3</b> NW<b class='flag-5'>2-05D05DR3</b>

    FN2-24D24C3N FN2-24D24C3N

    電子發(fā)燒友網(wǎng)為你提供AIPULNION(AIPULNION)FN2-24D24C3N相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有FN2-24D24C3N的引腳圖、接線圖、封裝手冊(cè)、中文資料、英文資料,F(xiàn)N2-24D24C3N真值表,F(xiàn)N
    發(fā)表于 03-19 18:49
    FN<b class='flag-5'>2-24D24C3</b>N FN<b class='flag-5'>2-24D24C3</b>N

    FN2-24D15C3 FN2-24D15C3

    電子發(fā)燒友網(wǎng)為你提供AIPULNION(AIPULNION)FN2-24D15C3相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有FN2-24D15C3的引腳圖、接線圖、封裝手冊(cè)、中文資料、英文資料,F(xiàn)N2-24D15C3真值表,F(xiàn)N
    發(fā)表于 03-19 18:46
    FN<b class='flag-5'>2-24D15C3</b> FN<b class='flag-5'>2-24D15C3</b>

    一種以圖像為中心的3D感知模型BIP3D

    在具身智能系統(tǒng)中,3D感知算法是個(gè)關(guān)鍵組件,它在端側(cè)幫助可以幫助智能體理解環(huán)境信息,在云端可以用來輔助生成3D場(chǎng)景和3D標(biāo)簽,具備重要的研究價(jià)值?,F(xiàn)有主流算法主要依賴于點(diǎn)云作為輸入
    的頭像 發(fā)表于 03-17 13:44 ?776次閱讀
    <b class='flag-5'>一種</b>以圖像為中心的<b class='flag-5'>3D</b>感知模型BIP<b class='flag-5'>3D</b>

    對(duì)于結(jié)構(gòu)光測(cè)量、3D視覺的應(yīng)用,使用100%offset的lightcrafter是否能用于點(diǎn)云生成的應(yīng)用?

    你好,我有些對(duì)于offset的疑問,希望能夠得到解答。 對(duì)于結(jié)構(gòu)光測(cè)量、3D視覺的應(yīng)用,使用100%offset的lightcrafter是否能用于點(diǎn)云生成的應(yīng)用? 標(biāo)定和三角重建
    發(fā)表于 02-28 06:20

    多維精密測(cè)量:半導(dǎo)體微型器件的2D&amp;3D視覺方案

    精密視覺檢測(cè)技術(shù)有效提升了半導(dǎo)體行業(yè)的生產(chǎn)效率和質(zhì)量保障。友思特自研推出基于深度學(xué)習(xí)平臺(tái)和視覺掃描系統(tǒng)的2D3D視覺檢測(cè)方案,通過9
    的頭像 發(fā)表于 01-10 13:54 ?1064次閱讀
    多維精密測(cè)量:半導(dǎo)體微型器件的<b class='flag-5'>2D</b>&amp;<b class='flag-5'>3D</b><b class='flag-5'>視覺</b>方案

    一種降低VIO/VSLAM系統(tǒng)漂移的新方法

    本文提出了一種方法,通過使用點(diǎn)到平面匹配將VIO/VSLAM系統(tǒng)生成的稀疏3D點(diǎn)云與數(shù)字孿生體進(jìn)行對(duì)齊,從而實(shí)現(xiàn)精確且全球致的
    的頭像 發(fā)表于 12-13 11:18 ?1041次閱讀
    <b class='flag-5'>一種</b>降低VIO/VSLAM系統(tǒng)漂移的新<b class='flag-5'>方法</b>

    3D 視覺定位技術(shù):汽車零部件制造的智能變革引擎

    在汽車零部件制造領(lǐng)域,傳統(tǒng)工藝正面臨著前所未有的挑戰(zhàn)。市場(chǎng)對(duì)于零部件精度與生產(chǎn)效率近乎苛刻的要求,促使企業(yè)尋求突破之道。而 3D 視覺定位技術(shù),為汽車零部件制造開啟了精準(zhǔn)定位與智能化生
    的頭像 發(fā)表于 12-10 17:28 ?1227次閱讀
    <b class='flag-5'>3D</b> <b class='flag-5'>視覺</b><b class='flag-5'>定位</b>技術(shù):汽車零部件制造的智能變革引擎

    文理解2.5D3D封裝技術(shù)

    隨著半導(dǎo)體行業(yè)的快速發(fā)展,先進(jìn)封裝技術(shù)成為了提升芯片性能和功能密度的關(guān)鍵。近年來,作為2.5D3D封裝技術(shù)之間的一種結(jié)合方案,3.5D封裝技術(shù)逐漸走向前臺(tái)。
    的頭像 發(fā)表于 11-11 11:21 ?4598次閱讀
    <b class='flag-5'>一</b>文理解2.5<b class='flag-5'>D</b>和<b class='flag-5'>3D</b>封裝技術(shù)

    一種將NeRFs應(yīng)用于視覺定位任務(wù)的新方法

    視覺定位旨在估計(jì)在已知環(huán)境中捕獲的給定圖像的旋轉(zhuǎn)和位置,大致可以分為絕對(duì)姿態(tài)回歸(APR),場(chǎng)景坐標(biāo)回歸(SCR)和分層方法(HM)。
    的頭像 發(fā)表于 10-28 10:03 ?794次閱讀
    <b class='flag-5'>一種</b>將NeRFs應(yīng)<b class='flag-5'>用于</b><b class='flag-5'>視覺</b><b class='flag-5'>定位</b>任務(wù)的新<b class='flag-5'>方法</b>