System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 亚洲中文无码av永久,无码国产福利av私拍,日韩毛片免费无码无毒视频观看
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于改進(jìn)的MOTR的野生動(dòng)物多目標(biāo)跟蹤方法技術(shù)

    技術(shù)編號(hào):44380460 閱讀:2 留言:0更新日期:2025-02-25 09:55
    一種基于改進(jìn)的MOTR的野生動(dòng)物多目標(biāo)跟蹤方法,步驟包括:1)利用卷積神經(jīng)網(wǎng)絡(luò)從采集到的鹿視頻中提取不同分辨率的多尺度鹿特征;2)利用改進(jìn)后的高效混合編碼器對(duì)前述的多尺度特征進(jìn)行特征融合,輸出融合后的多尺度特征;3)將融合后的多尺度特征輸入到基于先驗(yàn)知識(shí)的查詢初始化模塊,輸出帶有鹿初步位置信息的檢測(cè)查詢;4)檢測(cè)查詢與融合后的多尺度特征一起輸入到解碼器中,最后輸出當(dāng)前視頻幀的預(yù)測(cè)結(jié)果。本發(fā)明專利技術(shù)采用改進(jìn)的編碼器代替MOTR原有的編碼器,實(shí)現(xiàn)低計(jì)算量的同時(shí)提升小目標(biāo)跟蹤能力;初始化檢測(cè)查詢策略,減少復(fù)雜背景的影響,降低了漏檢現(xiàn)象,并提高了模型應(yīng)用于不同野外場(chǎng)景的泛化能力等。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本技術(shù)方案涉及一種動(dòng)物跟蹤方法,尤其是一種基于改進(jìn)的motr的野生動(dòng)物多目標(biāo)跟蹤方法,及其應(yīng)用于野外場(chǎng)景下鹿的多目標(biāo)跟蹤方法。


    技術(shù)介紹

    1、動(dòng)物追蹤對(duì)于野生動(dòng)物保護(hù)和管理具有重要的意義,將追蹤技術(shù)應(yīng)用于記錄遷徙動(dòng)物的遷徙路徑和行為模式識(shí)別,有助于深入了解種群活動(dòng)和棲息地利用情況,這可為監(jiān)測(cè)瀕危物種、評(píng)估生態(tài)系統(tǒng)健康狀況提供數(shù)據(jù)支持。研究人員也可利用動(dòng)物跟蹤技術(shù)獲取種群數(shù)量、分布及活動(dòng)范圍等信息,以便在野生動(dòng)物保護(hù)區(qū)制定保護(hù)措施、避免某些物種的過度繁殖和其他物種的過度捕食。此外,動(dòng)物跟蹤有助于及時(shí)了解圈養(yǎng)野生動(dòng)物的生活習(xí)性和健康狀況,以便改善動(dòng)物福利。

    2、早期的動(dòng)物跟蹤技術(shù)主要通過給動(dòng)物攜帶電子項(xiàng)圈,雖然這些方法能夠準(zhǔn)確定位和跟蹤動(dòng)物,但會(huì)對(duì)動(dòng)物造成傷害,或引起一些健康問題,如導(dǎo)致動(dòng)物產(chǎn)生應(yīng)激反應(yīng)等,此外,項(xiàng)圈也會(huì)對(duì)動(dòng)物的呼吸、進(jìn)食造成干擾。深度學(xué)習(xí)也被應(yīng)用于動(dòng)物多目標(biāo)跟蹤,與傳統(tǒng)方法相比,取得了更優(yōu)異的性能。目前深度學(xué)習(xí)的方法多數(shù)基于cnn,但由于卷積神經(jīng)網(wǎng)絡(luò)長期依賴關(guān)系的建模能力的受限,難以勝任長時(shí)監(jiān)控視頻的動(dòng)物目標(biāo)跟蹤任務(wù)。近年來,transformer在機(jī)器視覺領(lǐng)域逐漸興起,通過引入多頭注意力,transformer理解和處理遠(yuǎn)距離的語義關(guān)系,能夠應(yīng)對(duì)復(fù)雜應(yīng)用場(chǎng)景的多目標(biāo)跟蹤任務(wù),motr是這類方法的代表之一,它是一個(gè)完全端到端多目標(biāo)跟蹤框架,但該方法計(jì)算量較大,處理小目標(biāo)的能力較差,且無法應(yīng)對(duì)動(dòng)物的皮毛顏色與背景相似的情況。


    技術(shù)實(shí)現(xiàn)思路

    1、本專利技術(shù)提出了一種基于改進(jìn)的motr的野生動(dòng)物多目標(biāo)跟蹤方法,設(shè)計(jì)思路介紹如下:

    2、小目標(biāo)檢測(cè)能力是在野外進(jìn)行動(dòng)物目標(biāo)跟蹤的關(guān)鍵,傳統(tǒng)的cnn網(wǎng)絡(luò)只能提取動(dòng)物目標(biāo)的局部特征,而忽略了全局上下文信息,因此,在野外的復(fù)雜場(chǎng)景下難以跟蹤小的動(dòng)物目標(biāo)。

    3、motr(multi-object?tracking?and?segmentation)是一種基于transformer的端到端的多目標(biāo)跟蹤框架。motr的編碼器采用transformer結(jié)構(gòu),雖然可以捕獲全局特征,但是隨著特征序列長度的增加,計(jì)算量也會(huì)隨之倍增。

    4、在motr的解碼器階段,由上一幀的檢測(cè)結(jié)果生成的跟蹤查詢與當(dāng)前幀的檢測(cè)查詢拼接起來送入解碼器中進(jìn)行交互,由于檢測(cè)查詢中的內(nèi)容和其對(duì)應(yīng)的參考點(diǎn)坐標(biāo)都是隨機(jī)初始化的,缺乏先驗(yàn)知識(shí),導(dǎo)致對(duì)象查詢盲目地在特征圖中搜索目標(biāo)。在野外環(huán)境下,經(jīng)常會(huì)出現(xiàn)動(dòng)物的皮毛與環(huán)境的顏色非常相似的現(xiàn)象,motr模型無法很好地區(qū)分動(dòng)物目標(biāo)和背景,因此,會(huì)出現(xiàn)漏檢的現(xiàn)象。此外,motr模型應(yīng)用于在不同野外場(chǎng)景的泛化能力較差。

    5、解碼器的交叉注意力模塊可以被理解為“匹配+信息提取”的過程,每個(gè)查詢先匹配與之對(duì)應(yīng)的區(qū)域,再提取特征以供后續(xù)的預(yù)測(cè),但由于自注意力和前饋神經(jīng)網(wǎng)絡(luò)ffn對(duì)查詢進(jìn)行了多次映射,查詢與特征被映射到了不同的嵌入空間,這使得查詢很難匹配到其對(duì)應(yīng)的區(qū)域,無法很好地從對(duì)應(yīng)的區(qū)域提取動(dòng)物的特征。

    6、為了解決上述問題,進(jìn)一步提升動(dòng)物跟蹤的準(zhǔn)確率,本專利技術(shù)作如下技術(shù)改進(jìn):

    7、1、將高效混合編碼器efficient?hybrid?encoder、特征增強(qiáng)模塊rfem、se注意力結(jié)合,改進(jìn)了efficient?hybrid?encoder的特征金字塔部分,用改進(jìn)后的編碼器代替motr原有的編碼器,實(shí)現(xiàn)低計(jì)算量的同時(shí)提升小目標(biāo)跟蹤能力;

    8、2、為了從視覺相似的背景中區(qū)分鹿目標(biāo),本專利技術(shù)建立了一個(gè)基于先驗(yàn)知識(shí)的初始化檢測(cè)查詢策略,減少復(fù)雜背景的影響,降低了漏檢現(xiàn)象,并提高了改進(jìn)的motr模型的應(yīng)用于不同野外場(chǎng)景的泛化能力;

    9、3、為了更好地區(qū)分視覺上相似的不同尺寸大小的鹿個(gè)體,改善模型的鹿id識(shí)別性能,提出一個(gè)多尺度語義對(duì)齊模塊,語義對(duì)齊模塊通過將檢測(cè)查詢與特征圖投影到相同的嵌入空間,使檢測(cè)查詢快速正確地匹配特征圖中相應(yīng)的位置。

    10、本專利技術(shù)的基于改進(jìn)的motr的野生動(dòng)物多目標(biāo)跟蹤方法的具體步驟如下:

    11、步驟1,采集野外場(chǎng)景下的鹿視頻序列;

    12、步驟2,利用卷積神經(jīng)網(wǎng)絡(luò)(resnet50)對(duì)采集到的鹿視頻進(jìn)行處理,提取三種不同分辨率的多尺度鹿特征;

    13、步驟3,利用改進(jìn)后的高效混合編碼器(efficient?hybrid?encoder)替換原有的編碼器對(duì)前述的多尺度特征進(jìn)行特征融合,輸出融合后的多尺度特征,構(gòu)建改進(jìn)的高效混合編碼器的步驟包括:

    14、步驟3.1,特征融合分為內(nèi)尺度交互部分和跨尺度交互部分,在內(nèi)尺度交互部分,將步驟2)得到的三個(gè)不同分辨率特征圖記作{s3,s4,s5},其中分辨率最小的特征圖s5送入transformer做注意力計(jì)算以捕獲全局特征,輸出記作f5;

    15、步驟3.2,跨尺度交互部分的fusion模塊將需要融合的兩個(gè)特征圖會(huì)在通道維度上拼接起來,fusion模塊的執(zhí)行步驟包括;

    16、步驟3.2.1,利用兩個(gè)并聯(lián)的1x1的卷積分別對(duì)需要融合的兩個(gè)輸入特征圖進(jìn)行降維;

    17、步驟3.2.2,一個(gè)1x1卷積卷積降維后的特征圖將經(jīng)過一個(gè)由1x1的卷積和3x3的卷積組成的并聯(lián)結(jié)構(gòu),兩個(gè)卷積的輸出會(huì)逐元素相加,相加后的特征圖會(huì)經(jīng)過squeeze-and-excitation(se)注意力機(jī)制進(jìn)行膨脹擠壓操作,提升模型特征表達(dá)的精細(xì)度和全局信息的整合能力;

    18、步驟3.2.3,另一個(gè)1x1卷積卷積降維后的特征將會(huì)和步驟3.2.2)中逐元素相加后的特征圖再次逐元素相加;

    19、步驟3.3,跨尺度交互部分又分為自上而下和自下而上兩個(gè)融合部分,在自上而下的融合部分,f5會(huì)經(jīng)過rfem特征增強(qiáng)模塊處理,具體來說,f5特征圖將經(jīng)過三個(gè)不同空洞率(1,2,3)的空洞卷積,并依次進(jìn)行拼接,得到特征圖f6,f6再被上采樣成與s4特征分辨率大小相同的特征圖,該特征圖與s4一起送入fusion1模塊進(jìn)行融合;

    20、步驟3.4,步驟3.3)中fusion1模塊的輸出特征圖經(jīng)過rfem模塊處理后,得到特征圖f7,f7再被上采樣成與s3特征圖分辨率大小相同的特征圖,該特征圖與s3一起進(jìn)入fusion2模塊進(jìn)行融合;

    21、步驟3.5,在自下而上的融合部分,步驟3.4)中fusion2模塊的輸出被3x3的gsconv卷積下采樣成與步驟3.4)中f7分辨率大小相同的特征圖,該特征圖與特征圖f7一起進(jìn)入fusion3模塊中進(jìn)行融合;

    22、步驟3.6,步驟3.5)中fusion3模塊的輸出被3x3的gsconv卷積下采樣成與步驟3.3)中f6分辨率大小相同的特征圖,該特征圖與特征圖f6一起進(jìn)入fusion4模塊中進(jìn)行融合;

    23、步驟3.7,第fusion2、fusion3和fusion4融合的特征會(huì)作為最終的多尺度特征輸出;

    24、步驟4,步驟3.7)融合后的多尺度特征會(huì)被送入構(gòu)建的基于先驗(yàn)知識(shí)的本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.一種基于改進(jìn)的MOTR的野生動(dòng)物多目標(biāo)跟蹤方法,其特征是步驟包括:

    2.根據(jù)權(quán)利要求1所述的基于改進(jìn)的MOTR的野生動(dòng)物多目標(biāo)跟蹤方法,其特征是在步驟3)中,改進(jìn)后的高效混合編碼器中的Fusion模塊用來將跨尺度交互部分需要融合的兩個(gè)輸入特征圖進(jìn)行融合;Fusion模塊的結(jié)構(gòu)為:

    3.根據(jù)權(quán)利要求1或2所述的基于改進(jìn)的MOTR的野生動(dòng)物多目標(biāo)跟蹤方法,其特征是在步驟3)中,特征融合的具體步驟為:

    4.根據(jù)權(quán)利要求1所述的基于改進(jìn)的MOTR的野生動(dòng)物多目標(biāo)跟蹤方法,其特征是在步驟4)中,檢測(cè)查詢初始化模塊采用Deformable-DETR中Two-Stage變體的方法來初始化查詢向量。

    5.根據(jù)權(quán)利要求4所述的基于改進(jìn)的MOTR的野生動(dòng)物多目標(biāo)跟蹤方法,其特征是在步驟4)中,檢測(cè)查詢初始化模塊是基于先驗(yàn)知識(shí)的檢測(cè)查詢初始化模塊,利用兩階段的方法來初始化檢測(cè)查詢;

    6.根據(jù)權(quán)利要求1所述的基于改進(jìn)的MOTR的野生動(dòng)物多目標(biāo)跟蹤方法,其特征是在步驟5)中,解碼器的執(zhí)行步驟為:

    7.根據(jù)權(quán)利要求6所述的基于改進(jìn)的MOTR的野生動(dòng)物多目標(biāo)跟蹤方法,其特征是在步驟5.2)中的多尺度語義對(duì)齊模塊,具體步驟包括:

    8.根據(jù)權(quán)利要求1所述的基于改進(jìn)的MOTR的野生動(dòng)物多目標(biāo)跟蹤方法,其特征是在步驟6)中,QIM模塊用于管理新生目標(biāo)的出現(xiàn)和已跟蹤目標(biāo)的消失,從而篩選新生目標(biāo)、已經(jīng)跟蹤上的目標(biāo)和消亡的目標(biāo),并將新生目標(biāo)和已經(jīng)跟蹤上的目標(biāo)作為下一幀的跟蹤查詢輸出。

    ...

    【技術(shù)特征摘要】

    1.一種基于改進(jìn)的motr的野生動(dòng)物多目標(biāo)跟蹤方法,其特征是步驟包括:

    2.根據(jù)權(quán)利要求1所述的基于改進(jìn)的motr的野生動(dòng)物多目標(biāo)跟蹤方法,其特征是在步驟3)中,改進(jìn)后的高效混合編碼器中的fusion模塊用來將跨尺度交互部分需要融合的兩個(gè)輸入特征圖進(jìn)行融合;fusion模塊的結(jié)構(gòu)為:

    3.根據(jù)權(quán)利要求1或2所述的基于改進(jìn)的motr的野生動(dòng)物多目標(biāo)跟蹤方法,其特征是在步驟3)中,特征融合的具體步驟為:

    4.根據(jù)權(quán)利要求1所述的基于改進(jìn)的motr的野生動(dòng)物多目標(biāo)跟蹤方法,其特征是在步驟4)中,檢測(cè)查詢初始化模塊采用deformable-detr中two-stage變體的方法來初始化查詢向量。

    5.根據(jù)權(quán)利要求4所述的基于改...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:趙亞琴馬昊
    申請(qǐng)(專利權(quán))人:南京林業(yè)大學(xué)
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評(píng)論
    • 還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 亚洲AV永久无码精品水牛影视| 亚洲综合无码AV一区二区| 男人的天堂无码动漫AV| 亚洲AV无码成人精品区狼人影院| 国产成人亚洲精品无码AV大片| 亚洲国产a∨无码中文777| 无码办公室丝袜OL中文字幕| 亚洲日韩精品无码专区网址 | 国产日韩精品无码区免费专区国产 | 日韩精品无码一区二区三区不卡 | 精品无码人妻一区二区免费蜜桃 | 免费A级毛片无码A∨中文字幕下载| 亚洲av成人中文无码专区| 无码人妻品一区二区三区精99| 国产精品免费看久久久无码| 精品人妻大屁股白浆无码| 国产AV无码专区亚洲AV漫画| yy111111少妇影院无码| 亚洲成av人无码亚洲成av人| 人妻丝袜中文无码av影音先锋专区 | 亚洲国产精品无码久久| 亚洲中文字幕无码一区二区三区| 久久青青草原亚洲av无码app | 欧日韩国产无码专区| 亚洲精品久久无码| 亚洲中文无码永久免| 在线看片福利无码网址| 亚洲av无码不卡久久| 50岁人妻丰满熟妇αv无码区| 无码人妻熟妇AV又粗又大 | 国产精品亚韩精品无码a在线| 韩国19禁无遮挡啪啪无码网站| 日韩美无码五月天| 亚洲AV无码专区日韩| 中文字幕无码免费久久9一区9| 中文字幕丰满乱子无码视频| 日韩av无码中文无码电影| 韩国19禁无遮挡啪啪无码网站| 亚洲成AV人片在线观看无码| 亚洲AV日韩AV永久无码久久| 无码国内精品久久人妻|