• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當前位置: 首頁 > 專利查詢>天津大學專利>正文

    抖動視頻中目標跟蹤的方法技術

    技術編號:14952905 閱讀:50 留言:0更新日期:2017-04-02 09:53
    本發明專利技術屬于計算機視覺目標跟蹤領域,針對現有跟蹤算法在抖動視頻中跟蹤失敗的情況,本發明專利技術旨在提出一種用于抖動視頻下目標跟蹤的改進算法。本發明專利技術采用的技術方案是,抖動視頻中目標跟蹤的方法,步驟如下:利用局部區域塊搜索匹配算法,計算出目標物體在當前幀與上一幀的位置坐標偏差,然后將該偏差補償至跟蹤算法的檢測區域,使得跟蹤算法可以正確跟蹤當前目標。本發明專利技術主要應用于計算機視覺目標跟蹤場合。

    【技術實現步驟摘要】

    本專利技術屬于計算機視覺目標跟蹤領域,特別涉及用于抖動視頻中的目標跟蹤的方法。
    技術介紹
    隨著科技的發展,無人機航拍越來越熱門,而無人機航拍得到的視頻很難避免的會產生各種由于無人機的平移、晃動等導致拍攝的視頻具有嚴重的抖動情況。這些抖動現象會嚴重干擾對運動物體目標跟蹤的結果。而目前很多跟蹤算法,比如KCF(KernelizedCorrelationFilters,核相關濾波)跟蹤算法等,在嚴重抖動的視頻中均會出現跟蹤失敗的情況。原因是這些跟蹤算法的跟蹤原理是默認相鄰幀目標物體運動位移小,因此只在當前幀中檢測與上一幀物體位置相同的區域(由于認為目標物體運動位移小,因此相鄰幀目標物體位置差別不大)。而在抖動比較嚴重的視頻中,當前幀目標物體的位置很可能與上一幀該物體位置位移差很大,因此會導致這些跟蹤算法無法正確跟蹤運動目標。
    技術實現思路
    為克服現有技術的不足,針對現有跟蹤算法在抖動視頻中跟蹤失敗的情況,本專利技術旨在提出一種用于抖動視頻下目標跟蹤的改進算法。本專利技術采用的技術方案是,抖動視頻中目標跟蹤的方法,步驟如下:利用局部區域塊搜索匹配算法,計算出目標物體在當前幀與上一幀的位置坐標偏差,然后將該偏差補償至跟蹤算法的檢測區域,使得跟蹤算法可以正確跟蹤當前目標。具體步驟進一步細化為:(1)對于視頻第一幀,由用戶選擇出需要跟蹤的目標物體,得到目標物體的坐標范圍(x0,y0,w,h),該坐標分別表示目標物體所在的外接矩形的左上角橫坐標x0與縱坐標y0,外接矩形沿著x軸方向的寬度w與沿著y軸方向的高度h;(2)對于視頻第二幀,首先進行塊搜索匹配,如果目標物體比較小的話,在第一幀中選定目標物體區域作為匹配塊Blocki,其中下標i表示幀序號,第一幀i=0,第二幀i=2,以此類推,如果目標物體比較大的話,則選擇目標物體的一部分區域作為匹配塊Blocki;設匹配塊的長寬為M和N,由于視頻幀序列之間存在相對運動,導致隨后一系列視頻中的塊Blocki+1與前一幀的塊Blocki的位置發生偏移,假設x,y方向上最大偏移量分別為dx與dy,則在視頻當前幀中圍繞Blocki選定一個(M+2dx)*(N+2dy)搜索區域,根據最小絕對誤差準則,公式如下:其中,MAD即為MinimumAbsoluteDifference,最小絕對誤差,fk(s,t)和fk-1(s+i,t+j)分別表示當前幀和參考幀的灰度值,匹配塊大小為M×N,s,t分別表示匹配塊內的x和y方向坐標,i,j分別表示當前幀可能的匹配塊與參考幀匹配塊在x,y方向坐標差值。利用該準則在搜索區域中進行最小匹配搜索,得到最佳匹配塊Block,然后計算Block與Blocki的坐標差(offsetX,offsetY),得到偏差之后,跟蹤算法在上一幀的檢測區域加上該偏差得到新的檢測區域,即將原來的檢測區域在x方向和y方向分別平移offsetX和offsetY距離得到新的檢測區域,然后跟蹤算法在此區域上做計算得到精確的目標位置,接下來將該位置更新為用于下一幀塊搜索匹配的Blocki+1;(3)在接下的每一幀中,重復第二步的,即每次計算當前幀與上一幀的偏差,然后將該偏差補償至跟蹤算法上一幀的檢測區域得到當前幀的檢測區域,接著跟蹤算法在此區域上做計算得到精確的目標位置,同時更新塊Blocki+1,至此實現抖動視頻中目標跟蹤的功能。本專利技術的特點及有益效果是:本專利技術利用局部區域塊搜索匹配算法,精確的求出跟蹤目標區域抖動的分量,然后將該分量補償至目標跟蹤算法的檢測區域,使得目標跟蹤算法可以準確地跟蹤目標。該算法對于大抖動視頻中跟蹤小目標的效果更顯著。附圖說明:圖1:抖動視頻中目標跟蹤框架圖;圖2:塊搜索匹配算法圖。具體實施方式本專利技術針對現有跟蹤算法在抖動視頻中跟蹤失敗的情況,提出一種用于抖動視頻下目標跟蹤的改進算法。本專利技術采用的技術方案是:利用局部區域塊搜索匹配算法,計算出目標物體在當前幀與上一幀的位置坐標偏差,然后將該偏差補償至跟蹤算法的檢測區域,使得跟蹤算法可以正確跟蹤當前目標。本專利技術算法整體框架如圖1所示,主要步驟如下:(1)對于視頻第一幀,由用戶選擇出需要跟蹤的目標物體,得到目標物體的坐標范圍(x0,y0,w,h),該坐標分別表示目標物體所在的外接矩形的左上角橫坐標x0與縱坐標y0,外接矩形沿著x軸方向的寬度w與沿著y軸方向的高度h。(2)對于視頻第二幀,首先進行塊搜索匹配。如果目標物體比較小的話,在第一幀中選定目標物體區域作為匹配塊Blocki(其中i表示幀序號,第一幀i=0,第二幀i=2,以此類推),如果目標物體比較大的話,則可以選擇目標物體的一部分區域作為匹配塊Blocki(可以加快匹配速度)。設匹配塊的長寬為M和N。由于視頻幀序列之間存在相對運動,導致隨后一系列視頻中的塊Blocki+1與前一幀的塊Blocki的位置發生偏移,假設x,y方向上最大偏移量分別為dx與dy。則在視頻當前幀中圍繞Blocki選定一個(M+2dx)*(N+2dy)搜索區域,根據最小總絕對誤差準則,公式如下:其中,MAD即為MinimumAbsoluteDifference,最小絕對誤差,fk(s,t)和fk-1(s+i,t+j)分別表示當前幀和參考幀的灰度值,匹配塊大小為M×N,s,t分別表示匹配塊內的x和y方向坐標,i,j分別表示當前幀可能的匹配塊與參考幀匹配塊在x,y方向坐標差值。利用該準則在搜索區域中進行最小匹配搜索,得到最佳匹配塊Block,然后計算Block與Blocki的坐標差(offsetX,offsetY)。塊搜索匹配算法如圖2。得到偏差之后,跟蹤算法在上一幀的檢測區域加上該偏差得到新的檢測區域(即將原來的檢測區域在x方向和y方向分別平移offsetX和offsetY距離得到新的檢測區域),然后跟蹤算法在此區域上做計算得到精確的目標位置。接下來將該位置更新為用于下一幀塊搜索匹配的Blocki+1。(3)在接下的每一幀中,重復第二步的,即每次計算當前幀與上一幀的偏差,然后將該偏差補償至跟蹤算法上一幀的檢測區域得到當前幀的檢測區域,接著跟蹤算法在此區域上做計算得到精確的目標位置。同時更新塊Blocki+1。至此便實現抖動視頻中目標跟蹤的功能。本專利技術提出抖動視頻中目標跟蹤的方法,下面結合具體實施方式對本專利技術作進一步的詳細說明。測試環境:Windows764位MicrosoftVisualStudio2015首先從github上下載KCF跟蹤算法源代碼(KCF源代碼地址:https://github.com/joaofaro/KCFcpp),此算法在抖動視頻中跟蹤效果很差,經常會跟蹤失敗。在此程序上加入塊搜索算法的函數代碼,該函數輸入參數為Mat類型的前一幀的匹配塊Block和當前幀的塊搜索區域,輸出參數為x方向的偏移值offsetX和y方向的偏移值offsetY。然后在main.cpp文件中定位至update函數,原本該函數只有一個輸入參數,即當前幀Mat類型數據。現在將update函數增加2個類型為整型的輸入參數,分別為之前求得的x方向偏移值offsetX和y方向偏移值offsetY。接下來定位至update函數內部,在其函數內部將檢測區域_roi的x與y分別加上偏移值offs本文檔來自技高網...
    抖動視頻中目標跟蹤的方法

    【技術保護點】
    一種抖動視頻中目標跟蹤的方法,其特征是,步驟如下:利用局部區域塊搜索匹配算法,計算出目標物體在當前幀與上一幀的位置坐標偏差,然后將該偏差補償至跟蹤算法的檢測區域,使得跟蹤算法可以正確跟蹤當前目標。

    【技術特征摘要】
    1.一種抖動視頻中目標跟蹤的方法,其特征是,步驟如下:利用局部區域塊搜索匹配算法,計算出目標物體在當前幀與上一幀的位置坐標偏差,然后將該偏差補償至跟蹤算法的檢測區域,使得跟蹤算法可以正確跟蹤當前目標。2.如權利要求1所述的抖動視頻中目標跟蹤的方法,其特征是,具體步驟進一步細化為:(1)對于視頻第一幀,由用戶選擇出需要跟蹤的目標物體,得到目標物體的坐標范圍(x0,y0,w,h),該坐標分別表示目標物體所在的外接矩形的左上角橫坐標x0與縱坐標y0,外接矩形沿著x軸方向的寬度w與沿著y軸方向的高度h;(2)對于視頻第二幀,首先進行塊搜索匹配,如果目標物體比較小的話,在第一幀中選定目標物體區域作為匹配塊Blocki,其中下標i表示幀序號,第一幀i=0,第二幀i=2,以此類推,如果目標物體比較大的話,則選擇目標物體的一部分區域作為匹配塊Blocki;設匹配塊的長寬為M和N,由于視頻幀序列之間存在相對運動,導致隨后一系列視頻中的塊Blocki+1與前一幀的塊Blocki的位置發生偏移,假設x,y方向上最大偏移量分別為dx與dy,則在視頻當前幀中圍繞Blocki選定一個(M+2dx)*(N+2dy)搜索區域,根據最小絕對誤差準則,公式如下:MAD...

    【專利技術屬性】
    技術研發人員:操曉春何軍林鄭繼龍童學智李雪威
    申請(專利權)人:天津大學
    類型:發明
    國別省市:天津;12

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲精品无码成人片在线观看 | 中文无码AV一区二区三区| 蜜桃成人无码区免费视频网站| 亚洲色av性色在线观无码| 久久亚洲AV成人无码国产电影| 久久久久无码精品| a级毛片无码免费真人| 日木av无码专区亚洲av毛片| 精品无码久久久久久久动漫| 精品无码国产一区二区三区51安| 国产丰满乱子伦无码专区| 少妇人妻偷人精品无码AV| 熟妇无码乱子成人精品| 日韩综合无码一区二区| 日韩精品无码Av一区二区| 亚洲av无码偷拍在线观看| 久久国产精品无码一区二区三区 | 亚洲欧洲美洲无码精品VA| 人妻丰满熟妇AV无码区| 亚洲中文字幕无码爆乳| 亚洲AV永久无码精品水牛影视| 激情无码亚洲一区二区三区| 精品无码一区在线观看| 无码精品人妻一区二区三区人妻斩 | 人妻无码αv中文字幕久久| 久久久精品人妻无码专区不卡| 午夜寂寞视频无码专区| 久久亚洲精品无码gv| 亚洲AV综合永久无码精品天堂| 亚洲av永久无码精品天堂久久 | 无码日韩精品一区二区免费暖暖 | 曰韩精品无码一区二区三区| 亚洲?V无码成人精品区日韩| 狼人无码精华AV午夜精品| 免费无码婬片aaa直播表情| 人妻少妇精品无码专区漫画| 亚洲精品无码国产片| 久久天堂av综合色无码专区| 精品无码成人久久久久久| 精品一区二区三区无码免费直播| 五月婷婷无码观看|