System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 东京热人妻无码人av,无码中文字幕日韩专区视频,免费无码国产在线观国内自拍中文字幕
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當前位置: 首頁 > 專利查詢>浙江大學專利>正文

    一種基于擴散模型-卷積神經網絡的多模態圖像融合方法技術

    技術編號:44412287 閱讀:12 留言:0更新日期:2025-02-25 10:26
    本發明專利技術公開一種基于擴散模型?卷積神經網絡的多模態圖像融合方法,包括全局信息建模,局部細節特征提取,設計互補特征聚合模塊,設計多樣化損失函數。網絡模型由基于擴散和基于CNN的兩個分支組成,在擴散分支中,根據提出的時間步選擇策略向原始輸入X<subgt;0</subgt;引入噪聲,并在去噪過程中提取中間特征,以實現全局信息建模;在CNN分支中,使用多尺度卷積核和注意力模塊提取和整合局部詳細特征;隨后,利用提出的互補特征聚合模塊(CFAM)生成基于坐標注意力的注意力圖譜,以捕捉各支路特征之間的長距離依賴關系,從而實現有效聚合;最終,聚合結果被輸入到融合頭,以獲得融合結果。

    【技術實現步驟摘要】

    本專利技術屬于深度學習、圖像融合,具體涉及一種基于擴散模型-卷積神經網絡的多模態圖像融合方法


    技術介紹

    1、多模態圖像融合(mmif)是一種通過整合來自不同傳感器或成像模態的圖像,以獲取更豐富、信息量更大的融合圖像的技術,在基于深度學習的多模態圖像融合方法中,卷積神經網絡(cnn)和生成對抗網絡(gan)是最為常用的架構。該技術廣泛應用于多個領域,包括但不限于紅外與可見光融合(ivf)和醫學圖像融合(mif)。在ivf中,紅外圖像提供了目標的熱特征,而可見光圖像則捕捉了豐富的紋理和顏色信息。這種融合技術在自動駕駛、無人機夜間監控和視頻監控中至關重要,因為它能夠提升對場景的理解,增強目標檢測和識別的準確性。例如,在自動駕駛中,融合的圖像能夠在低光環境下提供更清晰的視圖,幫助駕駛系統做出更安全的決策。在mif中,不同的醫學成像技術(如mri、ct和超聲)能夠提供互補的信息。通過融合這些圖像,醫生可以獲得更全面的患者情況,有助于早期診斷和個性化治療。這種融合不僅提升了圖像的清晰度和對比度,還可以幫助醫生識別微小的病變,從而提高診斷的準確性和效率。然而,現有技術仍具有以下缺點:1)cnn方法受限于局部感受野,無法充分捕捉跨模態信息和長程依賴性,導致信息保真度下降;2)基于生成對抗網絡(gan)的技術訓練難度大,導致模態不平衡,影響融合質量。

    2、為了實現更高質量的融合效果和更好的應用價值,基于擴散模型(diffusionmodels)的方法被提出,擴散模型在多種生成任務中展現了卓越的能力,包括文本到圖像生成、圖像到圖像生成和圖像修復等。近年來,這些模型逐漸應用于更高層次的視覺任務,如語義分割和目標檢測,尤其是代表性模型如ddpm在這一領域取得了顯著進展。同時,擴散模型在低級視覺任務中的應用也日益受到關注,涉及圖像恢復、超分辨率以及圖像融合等技術。在執行這些任務時,常見的方法是首先向源圖像引入噪聲,然后利用去噪的u-net結構提取潛在特征以支持后續處理。盡管擴散模型能夠生成視覺上引人注目的融合圖像,其局部感知能力的不足以及固有的加噪機制卻導致了細節信息的顯著喪失,損失原始信息;且對有效時間步組合的探索不足,未能充分利用不同去噪時間步的特征。

    3、dif-fusion通過擴散模型來提高紅外和可見光圖像融合的顏色保真度,主要包括構建多通道數據分布、提取多通道擴散特征、直接生成三通道融合圖像,以及采用多通道梯度損失和強度損失來保留紋理和強度信息。然而該方法存在局限性:一方面,沒有針對加噪圖像設計補償或恢復手段,導致信息不可逆損失:另一方面,盡管擴散模型具有捕捉全局宏觀信息的能力,其對于局部細節特征的提取效果不佳。因此,dif-fusion方法得到的融合圖像中遺漏了一些細微的局部特征,從而影響了融合圖像的整體質量。

    4、ddfm通過結合去噪擴散概率模型(ddpm)與層次貝葉斯推斷,實現了多模態圖像融合。該方法首先利用預訓練的ddpm模型進行無條件圖像生成,然后通過em算法進行似然校正,以保留源圖像中的跨模態信息。但其在處理具有復雜背景和細微特征的圖像融合時,表現出泛化能力不足的問題,且由于需要完成整個反向擴散過程,計算資源需求較高,限制了其在資源受限環境下的應用。


    技術實現思路

    1、為了彌補現有技術的不足,本專利技術提供了一種基于擴散模型-卷積神經網絡的多模態圖像融合方法,旨在通過擴散和cnn分支提取互補特征,并有效聚合這些特征。

    2、本專利技術所解決的技術問題可通過以下技術方案實現:

    3、所述的一種基于擴散模型-卷積神經網絡的多模態圖像融合方法,包括以下步驟:

    4、s1.全局信息建模:通過引入噪聲并利用去噪u-net提取多尺度特征,利用基于擴散模型的網絡分支捕獲并建模圖像的全局信息;

    5、s2.局部細節特征提取:通過多尺度卷積層和混合注意力模塊提取多尺度局部細節特征,并利用多尺度特征聚合器增強層次化特征表示;

    6、s3.設計互補特征聚合模塊:通過在多個一維空間方向上計算強度張量,得到基于坐標注意力機制的權重圖譜,捕捉全局信息與局部細節特征之間的長距離依賴關系,并利用支路互補性,進行特征聚合;

    7、s4.設計多樣化損失函數:通過結合強度損失、梯度損失和余弦相似度損失,探索特征之間的互補性。

    8、進一步地,所述步驟s1中,在若干個時間步下,對圖像執行單步的加噪-去噪過程,并提取擴散模型的中間特征用于表征全局信息,具體操作為:

    9、首先,在擴散分支中,通過單步過程向原始輸入x0引入高斯噪聲,獲得特定時間步t的噪聲圖像xt,即:

    10、

    11、其中,∈是滿足獨立高斯分布的噪聲,是一組預定義的方差參數;

    12、然后,將帶有噪聲的圖像xt輸入到擴散模型中,進行單步去噪處理,計算公式如下:

    13、

    14、其中,xt-1是對應時間步t-1的噪聲圖像,z是對標準正態分布的采樣,∈θ(xt,t)是對于真實噪聲的預測,σt和αt是預定義的參數;即在根據擴散時間步為t的圖像預測擴散時間步為t-1的圖像時,模型捕獲到圖像的全局特征信息。

    15、進一步地,所述步驟s2中,通過多尺度特征聚合器逐步合并各個尺度的特征,具體如下:

    16、首先,將前置層的特征上采樣與后一層的尺寸相匹配,然后通過多層感知機制生成縮放因子γ和偏置β來調節多尺度特征配比,計算公式如下:

    17、

    18、其中,表示第k+1層卷積對應的特征,⊙表示逐元素相乘,γk是縮放參數,βk是偏移參數,通過這一過程,多尺度局部細節特征被有效融合到局部細節特征fc中,得到原始純凈圖像的多尺度細節特征,與擴散支路形成互補。

    19、進一步地,所述步驟s3中,互補特征聚合模塊的具體工作流程如下:

    20、首先,按照下面的公式提取一維正交方向注意力張量fx和fy:

    21、fx,fy=xap(f),yap(f),

    22、其中,xap和yap分別表示沿水平和垂直方向對特征進行平均池化,獲得對應方向的特征顯著性信息;

    23、然后,將尺寸分別為h×1和1×w的兩個一維強度張量相乘,得到尺寸為h×w的坐標注意力圖譜矩陣w,該圖譜反映了所有方向的長距離依賴關系,cfam通過以下公式聚合全局信息fd和局部細節特征fc:

    24、fr=w⊙fc+(1-w)☉fd,

    25、其中,fr表示聚合特征,通過網絡訓練得到坐標注意力圖譜;

    26、最后,聚合后的特征被送入融合頭以生成多模態圖像融合結果。

    27、進一步地,所述步驟s4中的損失函數包括強度損失lint、梯度損失lgrad和余弦相似度損失lcd,即:

    28、l=lint+αlgrad+βlcd,

    29、其中,α和β是各損失項之間的平衡因子,強度損失lint計算融合結果圖像ifused與兩幅輸入圖像i1、i2之間的逐像素強度差異本文檔來自技高網...

    【技術保護點】

    1.一種基于擴散模型-卷積神經網絡的多模態圖像融合方法,其特征在于,包括以下步驟:

    2.根據權利要求1所述的一種基于擴散模型-卷積神經網絡的多模態圖像融合方法,其特征在于,所述步驟S1中,在若干個時間步下,對圖像執行單步的加噪-去噪過程,并提取擴散模型的中間特征用于表征全局信息,具體操作為:

    3.根據權利要求1所述的一種基于擴散模型-卷積神經網絡的多模態圖像融合方法,其特征在于,所述步驟S2中,通過多尺度特征聚合器逐步合并各個尺度的特征,具體如下:

    4.根據權利要求1所述的一種基于擴散模型-卷積神經網絡的多模態圖像融合方法,其特征在于,所述步驟S3中,互補特征聚合模塊的具體工作流程如下:

    5.根據權利要求1所述的一種基于擴散模型-卷積神經網絡的多模態圖像融合方法,其特征在于,所述步驟S4中的損失函數包括強度損失Lint、梯度損失Lgrad和余弦相似度損失LCD,即:

    【技術特征摘要】

    1.一種基于擴散模型-卷積神經網絡的多模態圖像融合方法,其特征在于,包括以下步驟:

    2.根據權利要求1所述的一種基于擴散模型-卷積神經網絡的多模態圖像融合方法,其特征在于,所述步驟s1中,在若干個時間步下,對圖像執行單步的加噪-去噪過程,并提取擴散模型的中間特征用于表征全局信息,具體操作為:

    3.根據權利要求1所述的一種基于擴散模型-卷積神經網絡的多模態圖像融合方法,其特征在于,所述步...

    【專利技術屬性】
    技術研發人員:卓成盧旭東孫奇尹勛釗姜鈺琪
    申請(專利權)人:浙江大學
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲国产成AV人天堂无码| 人妻丰满熟妞av无码区| 一本一道av中文字幕无码| 久久久无码精品亚洲日韩蜜臀浪潮| 亚洲一本到无码av中文字幕| 日本无码色情三级播放| AV无码久久久久不卡网站下载| 中文无码vs无码人妻| 无码中文人妻在线一区二区三区| 精选观看中文字幕高清无码| 亚洲AV永久无码精品网站在线观看| 国产做无码视频在线观看浪潮| 无码免费午夜福利片在线| 亚洲午夜国产精品无码| 午夜成人无码福利免费视频| 亚洲精品无码专区| 99精品一区二区三区无码吞精| 亚洲一区二区三区无码中文字幕| 无码人妻精品一区二区三区不卡| 精品无码人妻一区二区三区| 亚洲桃色AV无码| 亚洲午夜国产精品无码老牛影视| 国产V片在线播放免费无码| 亚洲AV无码一区二区三区牲色| 亚洲av日韩av无码av| 久久久久亚洲AV片无码下载蜜桃| 久久久亚洲精品无码| 国产AV无码专区亚洲AV男同| 国产网红无码精品视频| 国产成年无码久久久免费| 在线a亚洲v天堂网2019无码| 少妇无码AV无码一区| 亚洲一区AV无码少妇电影☆| 亚洲成AV人在线观看天堂无码| 中文字幕无码免费久久9一区9 | 粉嫩大学生无套内射无码卡视频 | 亚洲精品~无码抽插| 中文人妻无码一区二区三区 | 精品少妇人妻AV无码专区不卡| 久久精品无码一区二区WWW| 亚洲无码一区二区三区|