• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當(dāng)前位置: 首頁(yè) > 專利查詢>廣州大學(xué)專利>正文

    一種基于多尺度注意力生成對(duì)抗網(wǎng)絡(luò)的醫(yī)學(xué)圖像增強(qiáng)方法技術(shù)

    技術(shù)編號(hào):36799179 閱讀:21 留言:0更新日期:2023-03-08 23:27
    本發(fā)明專利技術(shù)公開(kāi)了一種基于多尺度注意力生成對(duì)抗網(wǎng)絡(luò)的醫(yī)學(xué)圖像增強(qiáng)方法,兩個(gè)生成器和兩個(gè)判別器的對(duì)抗中得以訓(xùn)練,在編碼層跳轉(zhuǎn)連接時(shí)加入注意力門以過(guò)濾無(wú)效信息,突出重要圖像區(qū)域,避免冗余底層特征堆積;設(shè)計(jì)金字塔特征FPN對(duì)解碼層進(jìn)行擴(kuò)展,融合不同層次的特征和末端輸出;最后使用卷積注意力模塊在通道和空間維度對(duì)融合特征進(jìn)行注意力分配,成像時(shí)更加關(guān)注重點(diǎn)信息。該方法添加了光照均勻項(xiàng)、紋理保真項(xiàng)、感知損失項(xiàng)和圖像平滑性,從光照分布、紋理細(xì)節(jié)、深層語(yǔ)義特征及平滑性等多角度加強(qiáng)對(duì)生成圖像質(zhì)量的約束以提高增強(qiáng)效果。本發(fā)明專利技術(shù)采用Adam算法訓(xùn)練網(wǎng)絡(luò),并給出了實(shí)驗(yàn)結(jié)果驗(yàn)證本發(fā)明專利技術(shù)的可行性和有效性。本發(fā)明專利技術(shù)的可行性和有效性。本發(fā)明專利技術(shù)的可行性和有效性。

    【技術(shù)實(shí)現(xiàn)步驟摘要】
    一種基于多尺度注意力生成對(duì)抗網(wǎng)絡(luò)的醫(yī)學(xué)圖像增強(qiáng)方法


    [0001]本專利技術(shù)涉及醫(yī)學(xué)圖像增強(qiáng)、醫(yī)學(xué)圖像合成等領(lǐng)域,屬于醫(yī)學(xué)圖像處理技 術(shù)領(lǐng)域,具體涉及一種基于多尺度注意力生成對(duì)抗網(wǎng)絡(luò)的醫(yī)學(xué)圖像增強(qiáng)方法。

    技術(shù)介紹

    [0002]隨著現(xiàn)代醫(yī)療水平的不斷提升,作為實(shí)現(xiàn)“智慧醫(yī)療”核心的醫(yī)學(xué)影像 設(shè)備逐漸在各基層醫(yī)院得到應(yīng)用,X光(X
    ?
    ray)、電子計(jì)算機(jī)斷層掃描 (Computer Tomography,CT)、核磁共振(Magnetic Resonance,MR)、激光 掃描共聚焦顯微鏡(Confocal Laser Scanning Microscope,CLSM)、超聲波 (Ultrasound)等醫(yī)學(xué)圖像往往能為醫(yī)生們提供許多與生物或解剖組織相關(guān) 的信息,是進(jìn)行臨床診斷和治療的重要依據(jù)。然而實(shí)際獲取醫(yī)學(xué)圖像的過(guò)程 中存在許多不可控因素,導(dǎo)致采集到的圖像是低質(zhì)量的,主要原因包括:(1) 由于成本和技術(shù)受限,成像設(shè)備年久失修、缺乏維護(hù),并且可能不具備最新 的功能組件;(2)成像設(shè)備所處環(huán)境不佳,如黑暗、欠曝、存在遮擋等。這 些低質(zhì)量圖像存在兩點(diǎn)不良影響:(1)大大增加了醫(yī)護(hù)人員閱片識(shí)片的精力 和時(shí)間成本,從而導(dǎo)致臨床診斷的不確定性、誤判和漏判率提高;(2)計(jì)算 機(jī)視覺(jué)模型在面對(duì)低質(zhì)量圖像時(shí)準(zhǔn)確性能會(huì)大幅降低,不利于開(kāi)展后續(xù)的圖 像分析、分割和分類等任務(wù),大大降低醫(yī)學(xué)圖像的應(yīng)用價(jià)值。因此,保證醫(yī) 學(xué)圖像的高質(zhì)量十分重要,利用快速發(fā)展的計(jì)算機(jī)視覺(jué)技術(shù)提高醫(yī)學(xué)圖像的 質(zhì)量在近幾年已成為研究熱點(diǎn)。醫(yī)學(xué)圖像增強(qiáng)主要目的是均勻圖像亮度、保 證圖像結(jié)構(gòu)、恢復(fù)圖像紋理細(xì)節(jié),更加清晰地展現(xiàn)圖像內(nèi)容,使之變成更適 合肉眼觀察及計(jì)算機(jī)視覺(jué)模型使用的高質(zhì)量圖像,對(duì)于醫(yī)學(xué)和計(jì)算機(jī)視覺(jué)領(lǐng) 域都有著重要的意義。
    [0003]醫(yī)學(xué)圖像增強(qiáng)問(wèn)題已經(jīng)引起了廣泛的學(xué)術(shù)關(guān)注,目前傳統(tǒng)醫(yī)學(xué)圖像增強(qiáng) 方法有明顯的缺陷,區(qū)域處理時(shí)通常不加以區(qū)分前景和背景,造成高質(zhì)量區(qū) 域過(guò)度增強(qiáng),而低質(zhì)量區(qū)域增強(qiáng)不明顯,甚至放大噪聲,細(xì)節(jié)保留度較差。 基于深度學(xué)習(xí)的醫(yī)學(xué)圖像增強(qiáng)方法多數(shù)是完全監(jiān)督的,需要基于嚴(yán)格配對(duì)的 圖像數(shù)據(jù)進(jìn)行訓(xùn)練;而非配對(duì)方法雖適用性更強(qiáng),但在保持紋理細(xì)節(jié)和平衡 背景方面仍存在挑戰(zhàn),因此需要重新設(shè)計(jì)。

    技術(shù)實(shí)現(xiàn)思路

    [0004](一)解決的技術(shù)問(wèn)題
    [0005]針對(duì)現(xiàn)有技術(shù)的不足,本專利技術(shù)提供一種基于多尺度注意力生成對(duì)抗網(wǎng)絡(luò) 的醫(yī)學(xué)圖像增強(qiáng)方法,使其具備能夠更好地提取醫(yī)學(xué)圖像的多尺度、上下文 信息,并且基于注意力機(jī)制抑制不相關(guān)激活、突出重點(diǎn)信息,最后從循環(huán)一 致性、光照分布、紋理細(xì)節(jié)以及深層語(yǔ)義等多角度優(yōu)化對(duì)生成圖像質(zhì)量的約 束等優(yōu)點(diǎn),以解決依賴嚴(yán)格的配對(duì)訓(xùn)練數(shù)據(jù),且增強(qiáng)后圖像存在結(jié)構(gòu)不完整、 光照分布不均勻、紋理細(xì)節(jié)丟失的問(wèn)題。
    [0006](二)技術(shù)方案
    [0007]為實(shí)現(xiàn)上述能夠更好地提取醫(yī)學(xué)圖像的多尺度、上下文信息,并且基于 注意力機(jī)制抑制不相關(guān)激活、突出重點(diǎn)信息,最后從循環(huán)一致性、光照分布、 紋理細(xì)節(jié)以及深層語(yǔ)義
    等多角度優(yōu)化對(duì)生成圖像質(zhì)量的約束目的,本專利技術(shù)提 供如下技術(shù)方案:
    [0008]一種基于多尺度注意力生成對(duì)抗網(wǎng)絡(luò)的醫(yī)學(xué)圖像增強(qiáng)方法,包括包括以 下步驟:
    [0009]S1、構(gòu)建生成器G
    L

    H
    和判別器G
    L

    H
    ,為增強(qiáng)圖像分支;構(gòu)建相同生成器 G
    H

    L
    和判別器G
    H

    L
    ,為還原圖像分支;
    [0010]S2、將原始低質(zhì)量圖像x輸入到生成器G
    L

    H
    中得到增強(qiáng)圖像再將輸 入到生成器G
    H

    L
    中得到還原的低質(zhì)量圖像將原始高質(zhì)量圖像y輸入到生成 器G
    H

    L
    中得到低質(zhì)量圖像再將輸入到生成器G
    L

    H
    中得到還原的高質(zhì)量圖 像從中計(jì)算循環(huán)一致?lián)p失L
    Cyc
    、光照均勻損失L
    IU
    、紋理保真損失L
    TF
    、圖 像平滑損失L
    IS
    和感知損失L
    PL

    [0011]S2.1、將原始低質(zhì)量圖像x和原始高質(zhì)量圖像y分別輸入到生成器G
    H

    L
    和 G
    L

    H
    中得到映射圖像和從中計(jì)算身份映射損失L
    Idt

    [0012]S2.2、將原始高質(zhì)量圖像y和增強(qiáng)圖像輸入到判別器D
    H
    中,由D
    H
    判別它 們的真假,將原始低質(zhì)量圖像x和生成低質(zhì)量圖像輸入到判別器D
    L
    中,由D
    L
    判 別它們的真假,從中計(jì)算對(duì)抗損失L
    Adv

    [0013]S3、基于Adam算法和誤差反向傳播原理,通過(guò)優(yōu)化總體損失函數(shù)獲得 梯度,首先固定生成器,對(duì)判別器參數(shù)進(jìn)行更新;然后固定判別器,對(duì)生成 器參數(shù)進(jìn)行更新;重復(fù)以上過(guò)程直至達(dá)到訓(xùn)練輪數(shù)上限。
    [0014]優(yōu)選的,所述步驟S1中,生成器以基于卷積殘差模塊的U
    ?
    Net為主體, 在編碼層跳轉(zhuǎn)連接時(shí)加入注意力門以過(guò)濾無(wú)效信息,突出重要圖像區(qū)域,避 免冗余底層特征堆積;設(shè)計(jì)金字塔特征FPN對(duì)解碼層進(jìn)行擴(kuò)展,融合不同層 次的特征和末端輸出,更好地利用起多尺度、上下文全局信息;最后使用卷 積注意力模塊在通道和空間維度對(duì)融合特征進(jìn)行注意力分配,成像時(shí)能夠更 加關(guān)注重點(diǎn)信息。
    [0015]優(yōu)選的,所述步驟S2中,判別器則是由多個(gè)卷積模塊構(gòu)成的多尺度形式 的神經(jīng)網(wǎng)絡(luò)。
    [0016]優(yōu)選的,所述步驟S2中,計(jì)算循環(huán)一致?lián)p失L
    Cyc
    、光照均勻損失L
    IU
    、紋 理保真損失L
    TF
    、圖像平滑損失L
    IS
    和感知損失L
    PL
    ,包括:
    [0017]L
    Cyc
    =E
    x
    [||GH

    L
    (G
    L

    H
    (x))
    ?
    x||1]+E
    y
    [||G
    L

    H
    (G
    H

    L
    (y))
    ?
    y||1]????
    (1)
    [0018][0019][0020][0021][0022]優(yōu)選的,所述(1)式中,其中,x、y分別表示原始低質(zhì)量圖像和原始高質(zhì) 量圖像;G
    L

    H
    表示用于生成高質(zhì)量圖像的生成器,G
    H

    L
    表示用于生成低質(zhì)量 圖像的生成器;
    [0023](2)式中,其中,分別表示輸入圖像的全局平均照明本文檔來(lái)自技高網(wǎng)
    ...

    【技術(shù)保護(hù)點(diǎn)】

    【技術(shù)特征摘要】
    1.一種基于多尺度注意力生成對(duì)抗網(wǎng)絡(luò)的醫(yī)學(xué)圖像增強(qiáng)方法,其特征在于,包括以下步驟:S1、構(gòu)建生成器G
    L

    H
    和判別器G
    L

    H
    ,為增強(qiáng)圖像分支;構(gòu)建相同生成器G
    H

    L
    和判別器G
    H

    L
    ,為還原圖像分支;S2、將原始低質(zhì)量圖像x輸入到生成器G
    L

    H
    中得到增強(qiáng)圖像再將輸入到生成器G
    H

    L
    中得到還原的低質(zhì)量圖像將原始高質(zhì)量圖像y輸入到生成器G
    H

    L
    中得到低質(zhì)量圖像再將輸入到生成器G
    L

    H
    中得到還原的高質(zhì)量圖像從中計(jì)算循環(huán)一致?lián)p失L
    Cyc
    、光照均勻損失L
    IU
    、紋理保真損失L
    TF
    、圖像平滑損失L
    IS
    和感知損失L
    PL
    ;S2.1、將原始低質(zhì)量圖像x和原始高質(zhì)量圖像y分別輸入到生成器G
    H

    L
    和G
    L

    H
    中得到映射圖像和從中計(jì)算身份映射損失L
    Idt
    ;S2.2、將原始高質(zhì)量圖像y和增強(qiáng)圖像輸入到判別器D
    H
    中,由D
    H
    判別它們的真假,將原始低質(zhì)量圖像x和生成低質(zhì)量圖像輸入到判別器D
    L
    中,由D
    L
    判別它們的真假,從中計(jì)算對(duì)抗損失L
    Adv
    ;S3、基于Adam算法和誤差反向傳播原理,通過(guò)優(yōu)化總體損失函數(shù)獲得梯度,首先固定生成器,對(duì)判別器參數(shù)進(jìn)行更新;然后固定判別器,對(duì)生成器參數(shù)進(jìn)行更新;重復(fù)以上過(guò)程直至達(dá)到訓(xùn)練輪數(shù)上限。2.根據(jù)權(quán)利要求1所述的基于多尺度注意力生成對(duì)抗網(wǎng)絡(luò)的醫(yī)學(xué)圖像增強(qiáng)方法,其特征在于,所述步驟S1中,生成器以基于卷積殘差模塊的U
    ?
    Net為主體,在編碼層跳轉(zhuǎn)連接時(shí)加入注意力門以過(guò)濾無(wú)效信息,突出重要圖像區(qū)域,避免冗余底層特征堆積;設(shè)計(jì)金字塔特征FPN對(duì)解碼層進(jìn)行擴(kuò)展,融合不同層次的特征和末端輸出,更好地利用起多尺度、上下文全局信息;最后使用卷積注意力模塊在通道和空間維度對(duì)融合特征進(jìn)行注意力分配,成像時(shí)能夠更加關(guān)注重點(diǎn)信息。3.根據(jù)權(quán)利要求1所述的基于多尺度注意力生成對(duì)抗網(wǎng)絡(luò)的醫(yī)學(xué)圖像增強(qiáng)方法,其特征在于,所述步驟S2中,判別器則是由多個(gè)卷積模塊構(gòu)成的多尺度形式的神經(jīng)網(wǎng)絡(luò)。4.根據(jù)權(quán)利要求1所述的基于多尺度注意力生成對(duì)抗網(wǎng)絡(luò)的醫(yī)學(xué)圖像增強(qiáng)方法,其特征在于,所述步驟S2中,計(jì)算循環(huán)一致?lián)p失L
    Cyc
    、光照均勻損失L
    IU
    、紋理保真損失L
    TF
    、圖像平滑損失L
    IS
    和感知損失L
    PL
    ,包括:L
    Cyc
    =E
    x
    [||G
    H

    L
    (G
    L

    H
    (x))
    ?
    x||1]+E
    y
    [||G
    L

    H
    (G
    H

    L
    (y))
    ?
    y||1]
    ?????
    (1)(1)(1)(1)5.根據(jù)權(quán)利要求4所述的基于多尺度注意力生成對(duì)抗網(wǎng)絡(luò)的醫(yī)學(xué)圖像增強(qiáng)方法,其特征在于,所述(1)式中,其中,x、y分別表示原始低質(zhì)量圖像和原始高質(zhì)量圖像;G
    L

    H
    表示用于生成高質(zhì)量圖像的生成器,G
    H

    L
    表示用于生成低質(zhì)量圖像的生成器;
    (2)式中,其中,分別表示輸入圖像的全局平均照明度和p
    ×
    p大小的局部區(qū)域平均照明度;代表雙三次插值上采樣操作,用以消除尺度差...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:余玉豐鐘國(guó)金
    申請(qǐng)(專利權(quán))人:廣州大學(xué)
    類型:發(fā)明
    國(guó)別省市:

    網(wǎng)友詢問(wèn)留言 已有0條評(píng)論
    • 還沒(méi)有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: a级毛片无码免费真人| 中文字幕亚洲精品无码| 国产成A人亚洲精V品无码| 国产精品无码无片在线观看| 亚洲VA成无码人在线观看天堂| 亚洲性无码av在线| 中文字幕无码视频专区| 亚洲av片不卡无码久久| 免费a级毛片无码a∨免费软件| 在线精品自偷自拍无码中文| 国产成人无码一二三区视频| 色欲AV永久无码精品无码 | 亚洲中文字幕不卡无码| 日韩国产精品无码一区二区三区| 国产一区二区三区无码免费| 亚洲精品av无码喷奶水糖心| 无码专区久久综合久中文字幕| 一本大道久久东京热无码AV| 成人无码精品一区二区三区| 无码国内精品久久综合88| 亚洲AV无码欧洲AV无码网站| 国产精品无码一区二区三区在| AV无码人妻中文字幕| 亚洲av福利无码无一区二区 | 无码爆乳护士让我爽| 亚洲av无码国产精品夜色午夜| 午夜无码一区二区三区在线观看 | 久久青青草原亚洲av无码app | 无码任你躁久久久久久老妇App| 久久久久久av无码免费看大片| 九九在线中文字幕无码| 性虎精品无码AV导航| 亚洲精品无码aⅴ中文字幕蜜桃| 蜜桃成人无码区免费视频网站 | 国产成年无码v片在线| 亚洲AV无码专区在线观看成人| 亚洲午夜无码久久久久软件| 亚洲综合一区无码精品| 亚洲aⅴ天堂av天堂无码麻豆| 久久亚洲中文字幕无码| 亚洲精品无码少妇30P|