• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于深度可分離卷積網絡的圖像變化檢測方法技術

    技術編號:19513022 閱讀:32 留言:0更新日期:2018-11-21 08:49
    本發明專利技術提出了一種基于深度可分離卷積網絡的圖像變化檢測方法,用于解決現有圖像變化檢測方法中存在的檢測準確度低的技術問題。實現步驟為:構建訓練樣本集、驗證樣本集和測試樣本集,以全卷積網絡的變體U?Net為基礎網絡搭建深度可分離卷積網絡,構建訓練深度可分離卷積網絡的損失函數,訓練、測試并驗證深度可分離卷積網絡,利用已驗證的最終訓練好的深度可分離卷積網絡進行測試,得到變化檢測結果圖。本發明專利技術通過深度可分離卷積網絡提取的圖像特征語義及結構信息豐富,對圖像的表達能力及辨別性強,提高了變化檢測檢測準確度,可用于土地覆蓋檢測、災難評估、視頻監控等技術領域。

    【技術實現步驟摘要】
    基于深度可分離卷積網絡的圖像變化檢測方法
    本專利技術屬于圖像處理
    ,涉及一種圖像變化檢測方法,具體涉及一種遙感圖像變化檢測
    中基于深度可分離卷積網絡的圖像變化檢測方法,可用于土地覆蓋檢測、災難評估、視頻監控等

    技術介紹
    圖像變化檢測指利用多時相獲取的覆蓋同一地表區域的圖像及其它輔助數據來確定和分析地表變化。它利用計算機圖像處理系統,對不同時段目標或現象狀態的變化進行識別、分析;它能確定一定時間間隔內地物或現象的變化,并提供地物的空間分布及其變化的定性與定量信息。根據圖像數據處理的基本單位,變化檢測方法主要分為三大類:1)基于像素點的方法;2)基于窗口的方法;3)基于圖像的方法。基于像素點的方法以像素點為圖像分析的基本單元,充分利用光譜特性,而沒有考慮空間上下文,這種方法簡單容易理解,但是對噪聲的魯棒性很差,很難處理高分辨率的遙感圖像。基于窗口的方法常見處理方法為:通過差值法或比值法等算子得到差異圖,然后在差異圖上滑窗取塊,對窗口中心像素點或者整個窗口內的像素點做二分類,一般窗口大小都不超過9×9。相比于基于像素點的方法,基于窗口的方法考慮了空間鄰域和上下文信息,對噪聲有更佳的魯棒性,但是在處理大批量圖像數據和復雜的高分辨率遙感圖像時,由于其在大批量圖像數據上應用滑動窗口需要巨大時間花費,而且在圖像分辨率很高和地形環境復雜時(如處理建筑物變化檢測),該方法效率下降很多。基于圖像的方法與基于窗口的方法的主要區別在于基于圖像的方法訓練標簽使用圖像,而不是類別標量。基于圖像的方法不僅大大減少了時間開銷,實現檢測的實時性,而且充分考慮了圖像的全局信息,上下文信息更加豐富,提高了檢測的準確度。Zhan等人在其發表的論文“ChangeDetectionBasedonDeepSiameseConvolutionalNetworkforOpticalAerialImages”(IEEEGeoscience&RemoteSensingLetters,2017,PP(99):1-5)中,公開了一種基于權值耦合的深度卷積網絡的光學航拍圖像變化檢測方法。該方法以端對端的方式訓練整個網絡,采用5層卷積,網絡的輸入和輸出的尺寸相等。預測時直接輸入兩時刻的圖像,輸出兩時刻圖像的歐式距離圖,對歐式距離圖進行分割或者聚類等后處理操作得到最終的變化檢測結果圖。該方法的缺點是對圖像的表征能力有限,而且對后處理操作依賴性很強,導致變化檢測的準確度比較低。深度可分離卷積是一種高效的卷積操作,它在每個通道獨立執行空間卷積,然后進行逐點卷積,即1×1卷積,將深度卷積的通道映射到新的通道空間。深度可分離卷積減少了擬合數據所需要的參數,降低了訓練模型時過擬合的風險,提高卷積效果。
    技術實現思路
    本專利技術的目的在于針對上述已有技術的缺點,提出一種基于深度可分離卷積網絡的圖像變化檢測方法,用于解決現有圖像變化檢測方法中存在的檢測準確度低的技術問題。本專利技術實現上述目的的思路是:構建訓練樣本集、驗證樣本集和測試樣本集,以全卷積網絡的變體U-Net為基礎網絡搭建深度可分離卷積網絡,構建訓練深度可分離卷積網絡的損失函數,訓練、測試并驗證深度可分離卷積網絡,利用已驗證的最終訓練好的深度可分離卷積網絡進行測試,得到變化檢測結果圖。根據上述技術思路,實現本專利技術目的采用的技術方案包括如下步驟:(1)構建訓練樣本集、驗證樣本集和測試樣本集:(1a)獲取原始圖像樣本集:獲取包含拍攝于同一地點不同時刻的多組圖像樣本對,并對每組圖像樣本對的真實變化區域進行標注,得到包含多個真實的手工標注圖的原始圖像樣本集;(1b)對原始圖像樣本集中的每組圖像樣本對進行歸一化:對原始圖像樣本集中的每組圖像樣本對進行歸一化,得到歸一化后的多組圖像樣本對;(1c)對歸一化后的多組圖像樣本對進行更新:將歸一化后的每組圖像樣本對中的t2時刻圖像樣本堆疊到t1時刻圖像樣本上,得到多幅兩通道的圖像樣本;(1d)獲取訓練樣本集、驗證樣本集和測試樣本集:將多幅兩通道的圖像樣本中的多數圖像樣本作為訓練樣本集,剩余圖像樣本中的一部分圖像樣本作為驗證樣本集,另一部分圖像樣本作為測試樣本集;(2)搭建深度可分離卷積網絡:(2a)將全卷積網絡的變體U-Net作為待搭建深度可分離卷積網絡的基礎網絡;(2b)將待搭建深度可分離卷積網絡的基礎網絡的卷積層配置為深度可分離卷積,得到深度可分離卷積網絡;(3)構建訓練深度可分離卷積網絡的損失函數Loss:(3a)構建交叉熵損失函數BCE:其中,n為像素點的個數,yi為真實像素點的類別,yi為深度可分離卷積網絡的輸出值,i為第i個樣本;(3b)構建加權的dice系數損失函數DICE_loss:其中,w為查準率和召回率的偏好控制參數;(3c)獲取訓練深度可分離卷積網絡的損失函數Loss:Loss=BCE+DICE_loss;(4)對深度可分離卷積網絡進行訓練:(4a)設定迭代次數N為1,損失函數最小閾值為Δl,學習率為α;(4b)將訓練樣本集輸入到深度可分離卷積網絡中,得到多個概率圖,并計算每個概率圖與其對應的真實手工標注圖的損失函數,得到多個概率圖與多個真實的手工標注圖的損失函數LossN:其中,為第i個概率圖與其對應的真實手工標注圖的損失函數;(4c)判斷損失函數LossN是否小于最小閾值Δl,若是,將損失函數LossN對應的深度可分離卷積網絡作為訓練后的深度可分離卷積網絡,否則執行步驟(4d);(4d)采用梯度下降法對深度可分離卷積網絡的卷積層參數θ進行更新,得到卷積層參數為θnew的深度可分離卷積網絡,θnew的計算公式為:(4e)令N=N+1,同時將卷積層參數為θ的深度可分離卷積網絡更換為卷積層參數為θnew的深度可分離卷積網絡,并執行步驟(4b);(5)對訓練后的深度可分離卷積網絡進行測試:將驗證樣本集中的多幅兩通道的圖像樣本輸入到訓練后的深度可分離卷積網絡中,得到驗證樣本集中的圖像樣本在原始圖像樣本集中對應的每組圖像樣本對發生變化的概率圖,并對每個概率圖進行二值化,得到多個二值圖;(6)對訓練后的深度可分離卷積網絡進行驗證:計算由訓練后的深度可分離卷積網絡輸出的多個二值圖的變化檢測平均準確率,并判斷其是否小于設定的準確率閾值,若是,調整學習率α,并執行步驟(4),否則將多個二值圖對應的深度可分離卷積網絡作為最終訓練好的深度可分離卷積網絡,并執行步驟(7);(7)對最終訓練好的深度可分離卷積網絡進行測試:(7a)將測試樣本集中的多幅兩通道的圖像樣本輸入到最終訓練好的深度可分離卷積網絡中,得到測試樣本集中的圖像樣本在原始圖像樣本集中對應的每組圖像樣本對發生變化的概率圖;(7b)對每個概率圖進行二值化,得到多幅變化檢測結果圖。本專利技術與現有技術相比,具有以下優點:第一,由于本專利技術在對最終訓練好的深度可分離卷積網絡進行測試時,采用深度可分離卷積網絡提取特征,相比于現有技術采用的深度卷積網絡提取的特征更加抽象、語義及結構信息更加豐富,對圖像具有更強的表達能力及辨別性,有效提高檢測準確度。第二,由于本專利技術在對最終訓練好的深度可分離卷積網絡進行測試時,采用圖像的端對端輸出,相比于現有技術對深度卷積網絡的輸出進行分割或者聚類等后處理操作,本專利技術省略了后處理操本文檔來自技高網
    ...

    【技術保護點】
    1.一種基于深度可分離卷積網絡的圖像變化檢測方法,其特征在于包括如下步驟:(1)構建訓練樣本集、驗證樣本集和測試樣本集:(1a)獲取原始圖像樣本集:獲取包含拍攝于同一地點不同時刻的多組圖像樣本對,并對每組圖像樣本對的真實變化區域進行標注,得到包含多個真實的手工標注圖的原始圖像樣本集;(1b)對原始圖像樣本集中的每組圖像樣本對進行歸一化:對原始圖像樣本集中的每組圖像樣本對進行歸一化,得到歸一化后的多組圖像樣本對;(1c)對歸一化后的多組圖像樣本對進行更新:將歸一化后的每組圖像樣本對中的t2時刻圖像樣本堆疊到t1時刻圖像樣本上,得到多幅兩通道的圖像樣本;(1d)獲取訓練樣本集、驗證樣本集和測試樣本集:將多幅兩通道的圖像樣本中的多數圖像樣本作為訓練樣本集,剩余圖像樣本中的一部分圖像樣本作為驗證樣本集,另一部分圖像樣本作為測試樣本集;(2)搭建深度可分離卷積網絡:(2a)將全卷積網絡的變體U?Net作為待搭建深度可分離卷積網絡的基礎網絡;(2b)將待搭建深度可分離卷積網絡的基礎網絡的卷積層配置為深度可分離卷積,得到深度可分離卷積網絡;(3)構建訓練深度可分離卷積網絡的損失函數Loss:(3a)構建交叉熵損失函數BCE:...

    【技術特征摘要】
    1.一種基于深度可分離卷積網絡的圖像變化檢測方法,其特征在于包括如下步驟:(1)構建訓練樣本集、驗證樣本集和測試樣本集:(1a)獲取原始圖像樣本集:獲取包含拍攝于同一地點不同時刻的多組圖像樣本對,并對每組圖像樣本對的真實變化區域進行標注,得到包含多個真實的手工標注圖的原始圖像樣本集;(1b)對原始圖像樣本集中的每組圖像樣本對進行歸一化:對原始圖像樣本集中的每組圖像樣本對進行歸一化,得到歸一化后的多組圖像樣本對;(1c)對歸一化后的多組圖像樣本對進行更新:將歸一化后的每組圖像樣本對中的t2時刻圖像樣本堆疊到t1時刻圖像樣本上,得到多幅兩通道的圖像樣本;(1d)獲取訓練樣本集、驗證樣本集和測試樣本集:將多幅兩通道的圖像樣本中的多數圖像樣本作為訓練樣本集,剩余圖像樣本中的一部分圖像樣本作為驗證樣本集,另一部分圖像樣本作為測試樣本集;(2)搭建深度可分離卷積網絡:(2a)將全卷積網絡的變體U-Net作為待搭建深度可分離卷積網絡的基礎網絡;(2b)將待搭建深度可分離卷積網絡的基礎網絡的卷積層配置為深度可分離卷積,得到深度可分離卷積網絡;(3)構建訓練深度可分離卷積網絡的損失函數Loss:(3a)構建交叉熵損失函數BCE:其中,n為像素點的個數,yi為真實像素點的類別,yi為深度可分離卷積網絡的輸出值,i為第i個樣本;(3b)構建加權的dice系數損失函數DICE_loss:其中,w為查準率和召回率的偏好控制參數;(3c)獲取訓練深度可分離卷積網絡的損失函數Loss:Loss=BCE+DICE_loss;(4)對深度可分離卷積網絡進行訓練:(4a)設定迭代次數N為1,損失函數最小閾值為Δl,學習率為α;(4b)將訓練樣本集輸入到深度可分離卷積網絡中,得到多個概率圖,并計算每個概率圖與其對應的真實手工標注圖的損失函數,得到多個概率圖與多個真實的手工標注圖的損失函數LossN:其中,為第i個概率圖與其對應的真實手工標注圖的損失函數;(4c)判斷損失函數LossN是否小于最小閾值Δ...

    【專利技術屬性】
    技術研發人員:焦李成劉若辰張浪浪任蕊馮捷慕彩紅李陽陽
    申請(專利權)人:西安電子科技大學
    類型:發明
    國別省市:陜西,61

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲AV无码成人精品区日韩 | 国产成人综合日韩精品无码不卡| 无码人妻丰满熟妇区96| 97无码免费人妻超级碰碰碰碰| 无码国产精品一区二区免费式芒果| 精品无码久久久久久久久水蜜桃 | 无码中文字幕乱在线观看| 无码乱码观看精品久久| 亚洲精品无码乱码成人| 国产成人无码av| 男男AV纯肉无码免费播放无码| 免费无码肉片在线观看| 无码孕妇孕交在线观看| 在线高清无码A.| 亚洲?V无码成人精品区日韩| 国产成人精品无码专区| 日本无码WWW在线视频观看| 亚洲精品无码久久一线| 成人无码WWW免费视频| 人妻丰满熟妇AV无码区免| 中文字幕av无码无卡免费| 免费精品无码AV片在线观看| 伊人久久精品无码麻豆一区| 亚洲youwu永久无码精品| 无码精品A∨在线观看| 久久久久久久无码高潮| 亚洲A∨无码无在线观看| 无码精品国产一区二区三区免费| 岛国无码av不卡一区二区| 少妇无码太爽了不卡在线观看| 亚洲AV无码成人精品区蜜桃| 一本一道av中文字幕无码| 国产真人无码作爱视频免费| 亚洲中文字幕无码永久在线| 国产成人精品无码免费看| 亚洲AV无码国产剧情| 在线无码午夜福利高潮视频 | 亚洲中文字幕伊人久久无码| 亚洲av无码一区二区三区网站| 亚洲AV无码乱码在线观看裸奔| 亚洲精品无码久久久久|