18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學(xué)習(xí)的無(wú)信標(biāo)自動(dòng)追蹤工具

nlfO_thejiangme ? 來(lái)源:未知 ? 作者:李倩 ? 2018-09-06 09:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

對(duì)于動(dòng)物行為研究,特別是運(yùn)動(dòng)模式的分析很大程度上依賴于研究人員的人工觀察和分析。但研究人員近日開(kāi)發(fā)的新工具有望能夠?yàn)檠芯咳藛T們提供省時(shí)省力的新方法來(lái)對(duì)動(dòng)物的行為進(jìn)行持續(xù)的自動(dòng)觀測(cè)。

來(lái)自哈佛大學(xué)的科學(xué)家與合作伙伴研發(fā)出了基于深度學(xué)習(xí)的無(wú)信標(biāo)自動(dòng)追蹤工具,可以在視頻中持續(xù)追蹤動(dòng)物及其身上特征點(diǎn)的運(yùn)動(dòng),并達(dá)到了人類的精度水平。近日研究發(fā)表在了自然神經(jīng)科學(xué)的雜志上。

在神經(jīng)科學(xué)中,定量的行為觀察對(duì)于很多方面都是至關(guān)重要的。雖然攝像機(jī)為人們提供了一種便捷的手段來(lái)對(duì)動(dòng)物進(jìn)行觀察,提取特定行為并進(jìn)行進(jìn)一步分析常常是耗時(shí)耗力的工作。為了定量的監(jiān)控,研究對(duì)象通常會(huì)被打上一定的信標(biāo)來(lái)實(shí)現(xiàn)自動(dòng)追蹤,但很多情況下信標(biāo)具有侵入性和缺乏靈活性等缺點(diǎn)。為了解決這些問(wèn)題,研究人員們利用深度網(wǎng)絡(luò)從視頻中實(shí)現(xiàn)了動(dòng)物行為的無(wú)信標(biāo)追蹤,并達(dá)到了人類的精度水平。

通過(guò)構(gòu)建深度網(wǎng)絡(luò)和數(shù)據(jù)集,研究人員們成功訓(xùn)練出了一個(gè)可以從視頻中抽取身體特定部分位置的模型。研究人員門(mén)分別標(biāo)注了圖像中的ROI區(qū)域和每個(gè)區(qū)域中的關(guān)節(jié)作為輸入特征。神經(jīng)網(wǎng)絡(luò)使用預(yù)訓(xùn)練的ResNet-50最為主體抽取特征,最后通過(guò)訓(xùn)練解卷積網(wǎng)絡(luò)來(lái)對(duì)于身體位置的預(yù)測(cè)。

研究人員表示,這一方法甚至只需要標(biāo)注約200張對(duì)應(yīng)的圖像就可以達(dá)到很好的精度,并且可以將精度控制在幾個(gè)像素的范圍內(nèi)。

利用1080TiGPU,這一工具可以再682*540的圖像上實(shí)現(xiàn)30Hz的速度,并在分辨率更低的204*162像素上達(dá)到了85Hz的速度。

這種方法還可以廣泛用于多種動(dòng)物和場(chǎng)景下。研究人員利用四個(gè)實(shí)驗(yàn)探索了網(wǎng)絡(luò)功能的有效性。

首先在彩色圖像中對(duì)馬兒的身體關(guān)鍵點(diǎn)進(jìn)行了檢測(cè)和追蹤。研究顯示網(wǎng)絡(luò)對(duì)于不同顏色、不同視角和速度下的馬都有著較強(qiáng)的追蹤性能。

除此之外,研究人員還將這一方法應(yīng)用于老鼠的步態(tài)研究上,下圖顯示了老鼠在跑輪上運(yùn)動(dòng)的場(chǎng)景。模型被用于從側(cè)面和地面同時(shí)檢測(cè)和跟蹤運(yùn)動(dòng)。右圖顯示了模型對(duì)于電動(dòng)魚(yú)身體關(guān)鍵點(diǎn)的追蹤??梢钥吹綗o(wú)論是對(duì)不同場(chǎng)景視角還是不同的物種,都可以得到良好的效果。

除了動(dòng)物之外,這一網(wǎng)絡(luò)還可以用于追蹤人類行為及其三維位置。研究人員訓(xùn)練了三個(gè)視角下的追蹤網(wǎng)絡(luò),并將得到的數(shù)據(jù)通過(guò)投影矩陣重構(gòu)目標(biāo)對(duì)象的3D運(yùn)動(dòng)坐標(biāo),實(shí)現(xiàn)了三維目標(biāo)檢測(cè)與跟蹤。

值得一提的是,這一研究團(tuán)隊(duì)來(lái)自哈佛大學(xué)Rowland Institute, Adaptive motor control實(shí)驗(yàn)室,長(zhǎng)期致力于深入理解神經(jīng)系統(tǒng)的自適應(yīng)運(yùn)動(dòng)控制。

或許這種方法除了用于動(dòng)物行為追蹤外,還可以用于機(jī)器人及其執(zhí)行器的末端追蹤,為抓取、放置的任務(wù)提供額外的信息。如果你想詳細(xì)了解這項(xiàng)研究,請(qǐng)參閱Nature的研究?jī)?nèi)容:

https://www.nature.com/articles/s41593-018-0209-y

作者也發(fā)布了DeepLabCut的代碼,有興趣的小伙伴似乎可以為自家的狗子/貓寫(xiě)一個(gè)行為追蹤程序,研究它們每天的活動(dòng)規(guī)律呢~代碼地址:

https://github.com/AlexEMG/DeepLabCut

作者在這里給出了詳細(xì)的安裝、配置、使用和標(biāo)注教程:

https://alexemg.github.io/DeepLabCut/docs/demo-guide.html

(代碼主要基于TensorFlow構(gòu)建,包含了分析、測(cè)評(píng)工具和對(duì)應(yīng)的文檔。構(gòu)建網(wǎng)絡(luò)的核心代碼位于DeepLabCut/pose-tensorflow/pose_net.py的PoseNet類中。)

實(shí)驗(yàn)室主頁(yè):

https://www.mousemotorlab.org/deeplabcut/

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:被盯上了!說(shuō)你吶~哈佛大學(xué)研發(fā)出基于深度學(xué)習(xí)的無(wú)信標(biāo)自動(dòng)追蹤工具,可準(zhǔn)確追蹤動(dòng)物運(yùn)動(dòng)

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門(mén)創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    人士而言往往難以理解,人們也常常誤以為需要扎實(shí)的編程技能才能真正掌握并合理使用這項(xiàng)技術(shù)。事實(shí)上,這種印象忽視了該技術(shù)為機(jī)器視覺(jué)(乃至生產(chǎn)自動(dòng)化)帶來(lái)的潛力,因?yàn)?b class='flag-5'>深度學(xué)習(xí)并非只屬于計(jì)算機(jī)科學(xué)家或程序員。 從頭開(kāi)始:什么
    的頭像 發(fā)表于 09-10 17:38 ?545次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過(guò)模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?584次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動(dòng)駕駛領(lǐng)域,部分廠商開(kāi)始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過(guò)時(shí)”的激烈爭(zhēng)論。然而,從技術(shù)原理、算力成本、安全需求與實(shí)際落地路徑等維度來(lái)看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?3794次閱讀
    <b class='flag-5'>自動(dòng)</b>駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    關(guān)于藍(lán)牙信標(biāo)的定義

    藍(lán)牙信標(biāo)是一款基于低功耗藍(lán)牙BLE(藍(lán)牙4.0以上)廣播協(xié)議的硬件設(shè)備,兼容ibeacon協(xié)議或者eddystone。藍(lán)牙信標(biāo)通常采用小型、便攜式的設(shè)備,可以被安裝在不同的位置,例如商店、博物館、機(jī)場(chǎng)等。通過(guò)藍(lán)牙信標(biāo),用戶可以獲
    發(fā)表于 06-18 16:02

    使用MATLAB進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

    無(wú)監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無(wú)監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無(wú)需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1050次閱讀
    使用MATLAB進(jìn)行<b class='flag-5'>無(wú)</b>監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    行業(yè)首創(chuàng):基于深度學(xué)習(xí)視覺(jué)平臺(tái)的AI驅(qū)動(dòng)輪胎檢測(cè)自動(dòng)

    全球領(lǐng)先的輪胎制造商 NEXEN TIRE 在其輪胎生產(chǎn)檢測(cè)過(guò)程中使用了基于友思特伙伴Neurocle開(kāi)發(fā)的AI深度學(xué)習(xí)視覺(jué)平臺(tái),實(shí)現(xiàn)缺陷檢測(cè)率高達(dá)99.96%,是該行業(yè)首個(gè)使用AI平臺(tái)技術(shù)推動(dòng)缺陷檢測(cè)自動(dòng)化流程的企業(yè)。
    的頭像 發(fā)表于 03-19 16:51 ?683次閱讀
    行業(yè)首創(chuàng):基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>視覺(jué)平臺(tái)的AI驅(qū)動(dòng)輪胎檢測(cè)<b class='flag-5'>自動(dòng)</b>化

    在OpenVINO?工具套件的深度學(xué)習(xí)工作臺(tái)中無(wú)法導(dǎo)出INT8模型怎么解決?

    無(wú)法在 OpenVINO? 工具套件的深度學(xué)習(xí) (DL) 工作臺(tái)中導(dǎo)出 INT8 模型
    發(fā)表于 03-06 07:54

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢(shì),導(dǎo)致戰(zhàn)爭(zhēng)形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?736次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?1212次閱讀

    AI自動(dòng)化生產(chǎn):深度學(xué)習(xí)在質(zhì)量控制中的應(yīng)用

    隨著科技的飛速發(fā)展,人工智能(AI)與深度學(xué)習(xí)技術(shù)正逐步滲透到各個(gè)行業(yè),特別是在自動(dòng)化生產(chǎn)中,其潛力與價(jià)值愈發(fā)凸顯。深度學(xué)習(xí)軟件不僅使人工和
    的頭像 發(fā)表于 01-17 16:35 ?1073次閱讀
    AI<b class='flag-5'>自動(dòng)</b>化生產(chǎn):<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在質(zhì)量控制中的應(yīng)用

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門(mén)為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?2606次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?918次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    能力,可以顯著提高圖像識(shí)別模型的訓(xùn)練速度和準(zhǔn)確性。例如,在人臉識(shí)別、自動(dòng)駕駛等領(lǐng)域,GPU被廣泛應(yīng)用于加速深度學(xué)習(xí)模型的訓(xùn)練和推理過(guò)程。 二、自然語(yǔ)言處理 自然語(yǔ)言處理(NLP)是深度
    的頭像 發(fā)表于 10-27 11:13 ?1968次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動(dòng)駕駛、無(wú)人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器
    的頭像 發(fā)表于 10-27 10:57 ?1352次閱讀