System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 亚洲欧洲国产综合AV无码久久,国产精品爆乳奶水无码视频,无码综合天天久久综合网
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當前位置: 首頁 > 專利查詢>南京大學專利>正文

    一種全身PET與CT圖像相互轉換的人工智能方法技術

    技術編號:44313458 閱讀:1 留言:0更新日期:2025-02-18 20:27
    本發(fā)明專利技術提出一種一種全身PET與CT圖像相互轉換的人工智能方法,使用增強型條件生成對抗網(wǎng)絡(cGAN)模型實現(xiàn)了全身CT與PET圖像之間的模態(tài)轉換。該方法結合了殘差卷積塊和全卷積Transformer塊,以提高模型捕捉局部特征和全局上下文信息的能力。本申請設計了一個定制的損失函數(shù),結合結構一致性損失,能夠提升生成圖像的整體質量。在CT?>PET和PET?>CT兩個模態(tài)轉換任務上進行了大量實驗,結果表明,本申請的模型能夠生成高質量的圖像,在臨床相關性和診斷價值方面均接近原始圖像。本發(fā)明專利技術所提出的結合Transformer的cGAN框架能夠減少多模態(tài)圖像檢查的需求,從而降低患者的輻射暴露劑量和整體醫(yī)療成本,為PET?CT多模態(tài)圖像轉換的臨床應用奠定了堅實的基礎。

    【技術實現(xiàn)步驟摘要】

    本專利技術屬于醫(yī)學圖像模態(tài)轉換,具體涉及一種全身pet與ct圖像相互轉換的人工智能方法。


    技術介紹

    1、在醫(yī)學領域,ct(計算機斷層掃描)和pet(正電子發(fā)射斷層掃描)是較為成熟和常見的成像技術,它們分別提供了人體解剖結構和代謝活動的互補信息。然而,pet-ct多模態(tài)掃描存在高成本、輻射劑量大、掃描時間長等問題。因此,如何減少患者的輻射暴露、降低醫(yī)療成本并提高診斷精度,成為了當前醫(yī)學圖像領域的一個研究熱點。近年來,隨著人工智能和深度學習技術的快速發(fā)展,基于深度學習的醫(yī)學圖像模態(tài)轉換方法為解決這一難題提供了創(chuàng)新性的解決方案。通過基于深度學習模型的人工智能方法,ct和pet圖像之間可以進行高效轉換,從而有可能只做單模態(tài)掃描就得到多模態(tài)圖像。這樣在減少pet-ct多模態(tài)掃描需求的同時,能夠降低患者的輻射暴露和相關成本。此外,利用這種方法,有潛力在病灶區(qū)域生成信息更加豐富的多模態(tài)圖像,同時看到解剖細節(jié)和代謝情況,提升診斷的可靠性。然而,現(xiàn)有的深度學習生成模型在ct和pet圖像轉換任務中仍面臨一些技術瓶頸,尤其是在圖像生成的質量和高攝取區(qū)域(如腫瘤)的準確性方面。由于pet和ct圖像在灰度值范圍和分布上存在顯著差異,尤其是pet圖像的灰度值范圍跨度大且分布不均勻,使得許多模型生成的pet圖像難以準確體現(xiàn)高攝取區(qū)域的圖像細節(jié)。此外,傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(cnn)由于主要擅長局部特征提取,無法充分捕捉全局上下文信息,使得單純基于卷積網(wǎng)絡的模型在多模態(tài)轉換任務中表現(xiàn)不佳。

    2、為了解決這些問題,生成對抗網(wǎng)絡(gan)逐漸成為跨模態(tài)圖像生成領域的主流技術。gan通過生成器和判別器的對抗訓練,能夠從源域生成逼真的目標域圖像。其中,pix2pix,cyclegan和cgan是廣泛應用于醫(yī)學圖像生成的經(jīng)典的gan模型。pix2pix適用于有配對數(shù)據(jù)的情況,利用l1范數(shù)損失函數(shù)增強細節(jié)生成;cyclegan則在無配對數(shù)據(jù)的條件下表現(xiàn)優(yōu)異,依賴循環(huán)一致性損失函數(shù)保證生成圖像與目標圖像的一致性;cgan引入目標圖像作為標簽信息,在此后驗條件下優(yōu)化整個gan模型,能夠更充分地利用訓練數(shù)據(jù)。然而,這些經(jīng)典gan模型在處理全身ct和pet圖像的多模態(tài)轉換時仍存在一定局限性,尤其是在捕捉全局上下文信息和生成高攝取區(qū)域時,生成的圖像質量不夠理想。隨著transformer架構被引入醫(yī)學圖像生成任務中,它成為提升全局特征提取效果的關鍵。transformer通過自注意力機制,能夠有效捕捉圖像中的全局依賴關系,使得模型在生成復雜圖像時更加靈活和準確。這一創(chuàng)新性架構啟發(fā)了本專利技術設計的fctr(fully?connected?transformer?residual)塊,它被嵌入到生成器的瓶頸模塊中,使得本專利技術中提出的模型既保留了卷積神經(jīng)網(wǎng)絡對局部特征的捕捉能力,又通過自注意力機制提升了對全局上下文信息的理解。

    3、基于此,本專利技術結合條件生成對抗網(wǎng)絡(cgan)和transformer模塊,提出了一種全身ct和pet圖像的雙向生成方法。該方法不僅能夠通過ct圖像生成高質量的pet圖像,還能夠從pet圖像生成高質量的ct圖像,從而實現(xiàn)多模態(tài)圖像的高效轉換。生成器模塊通過transformer的增強,不僅可以捕捉局部細節(jié),還能更好地理解全局解剖結構,使得生成的圖像更加真實可靠。而判別器則用于區(qū)分目標圖像和生成的圖像,確保生成圖像在結構和紋理上的逼真度。與此同時,結構一致性損失函數(shù)的引入,保證了生成圖像在關鍵解剖區(qū)域的細節(jié)表現(xiàn)。通過這種雙向生成方法,本專利技術能夠有效解決ct和pet圖像在各自應用中的局限性,減少了對pet-ct多模態(tài)掃描的需求,降低了患者的輻射暴露,同時也提高了單模態(tài)圖像的診斷精度和臨床適用性。


    技術實現(xiàn)思路

    1、專利技術目的:針對pet-ct多模態(tài)圖像存在的掃描成本高、輻射劑量大以及成像時間長等問題,本專利技術提供一種全身pet與ct圖像相互轉換的人工智能方法,通過pet與ct圖像的雙向生成,實現(xiàn)了多模態(tài)圖像之間的高效轉換,能夠提升單模態(tài)圖像的診斷質量和準確性。具體而言,本專利技術通過從ct圖像生成pet圖像,可在不使用放射性藥物的同時獲得人體代謝信息;從pet圖像生成ct圖像,能夠在不經(jīng)過x射線照射的情況下重建人體解剖結構。

    2、技術方案:本專利技術提出了一種全身pet與ct圖像相互轉換的人工智能方法,包括如下6個步驟:

    3、a)文獻調(diào)研:廣泛調(diào)研了相關領域的文獻資料,包括但不限于,醫(yī)學圖像生成的研究現(xiàn)狀;醫(yī)學圖像模態(tài)轉換的研究現(xiàn)狀;生成對抗網(wǎng)絡模型的研究現(xiàn)狀。

    4、b)收集數(shù)據(jù):同南京鼓樓醫(yī)院醫(yī)生合作,收集了102例全身pet-ct多模態(tài)圖像數(shù)據(jù),相應地得到超過21000對二維的圖像對;將收集到的數(shù)據(jù)集按照8:1:1的比例隨機分為訓練集、驗證集、測試集,并對圖像空間分辨率統(tǒng)一預處理為1mm

    5、×1mm×1mm,圖像的橫截面像素數(shù)量統(tǒng)一預處理為256×256。

    6、c)建立模型:基于transformer殘差塊和條件生成對抗網(wǎng)絡(cgan),構建pet與

    7、ct圖像雙向轉換的框架和深度網(wǎng)絡模型,即pet-ct圖像雙向轉換模型。

    8、d)設計損失函數(shù):在損失函數(shù)中加入對抗損失、像素損失和結構一致性損失,分別用于保證生成圖像與目標圖像在整體上、像素值分布上以及關鍵解剖區(qū)域的相似性,即生成圖像在關鍵解剖區(qū)域的細節(jié)表現(xiàn)。

    9、e)訓練模型:采用兩階段訓練方法將c)中構建的pet-ct圖像雙向轉換模型在訓練集上進行訓練和優(yōu)化,并在驗證集上進行驗證。

    10、f)訓練結束后,將e)中所得的網(wǎng)絡模型在測試集上進行測試,將得到的pet生成結果同其他模型進行比較,并進行量化和可視化評估,分析生成的pet與ct圖像的質量和臨床實用性。

    11、具體而言,所述步驟b)中的ct圖像為常規(guī)全身ct平掃,空間分辨率為1.172×1.172×4.0mm3,每幅二維橫截面圖像大小為512×512,;全身pet掃描的空間分辨率為4.0×4.0×4.0mm3,每幅二維橫截面圖像大小為144×144。接下來將收集到的ct和pet圖像數(shù)據(jù)按照8:1:1的比例隨機分為訓練集、驗證集和測試集;處理方法包括使用每張圖像像素值的99.5%百分位數(shù)作為強度值的閾值截斷,并將圖像的像素值歸一化到[-1,1],隨機水平和垂直翻轉,隨機裁剪,以消除極端值的影響,并確保圖像數(shù)據(jù)保持一致的比例進行訓練和測試。

    12、具體而言,所述步驟c)中的pet-ct圖像雙向轉換模型由基于卷積殘差和transformer的生成器和patchgan結構的判別器組成。生成器由編碼器和解碼器組成。編碼器部分由下采樣特征提取模塊和瓶頸模塊兩部分組成,其中下采樣模塊由三層卷積殘差塊組成,每一層通過兩次卷積操作提取圖像的特征,同時每次下采樣時將圖像尺寸減半并增加通道數(shù),以更好地捕捉圖像的多尺度特征。瓶頸模塊使用了九個fctr塊,每個fctr塊包含一個全卷積wide-focus模塊和一個卷積注意模塊本文檔來自技高網(wǎng)...

    【技術保護點】

    1.一種全身PET與CT圖像相互轉換的人工智能方法,其特征在于,包括如下步驟:

    2.根據(jù)權利要求1所述的一種全身PET與CT圖像相互轉換的人工智能方法,其特征在于:建立的PET-CT圖像雙向轉換模型能用于全身CT圖像和全身PET圖像的互相轉換。

    3.根據(jù)權利要求1所述的一種全身PET與CT圖像相互轉換的人工智能方法,其特征在于:所述PET-CT圖像雙向轉換模型由基于殘差卷積塊和Transformer塊的生成器和一個判別器組成;其中,生成器由編碼器和解碼器組成;編碼器部分由下采樣特征提取模塊和瓶頸模塊兩部分組成,下采樣模塊由三層卷積殘差塊組成,每一層通過兩次卷積操作提取圖像的特征,同時每次下采樣時將圖像尺寸減半并增加通道數(shù),以更好地捕捉圖像的多尺度特征;瓶頸模塊使用了九個FCTR塊,每個FCTR塊包含一個全局聚焦模塊、一個卷積注意力模塊和一個殘差塊,通過這些模塊能夠捕捉多尺度的特征信息,同時提取局部細節(jié)和全局上下文信息;解碼器部分首先采用兩個反卷積層,每一層將輸入特征圖的尺寸擴大一倍,同時減少通道數(shù),恢復到接近原始源圖像的大小,然后利用1×1卷積層接一個雙曲正切激活函數(shù),輸出最終的生成圖像;判別器的輸出是一個二維矩陣,每個值對應于輸入圖像中70×70局部區(qū)域的真?zhèn)卧u分,從而更精準地評估生成圖像中各個局部解剖區(qū)域的生成效果。

    4.根據(jù)權利要求1所述的一種全身PET與CT圖像相互轉換的人工智能方法,其特征在于:損失函數(shù)分為對抗損失、像素損失和結構一致性損失,通過計算生成圖像與目標圖像整體的相似程度、在像素級別的差異,以及在關鍵解剖區(qū)域中的結構一致性,確保生成圖像的質量和準確性;結構一致性損失設計為:

    ...

    【技術特征摘要】

    1.一種全身pet與ct圖像相互轉換的人工智能方法,其特征在于,包括如下步驟:

    2.根據(jù)權利要求1所述的一種全身pet與ct圖像相互轉換的人工智能方法,其特征在于:建立的pet-ct圖像雙向轉換模型能用于全身ct圖像和全身pet圖像的互相轉換。

    3.根據(jù)權利要求1所述的一種全身pet與ct圖像相互轉換的人工智能方法,其特征在于:所述pet-ct圖像雙向轉換模型由基于殘差卷積塊和transformer塊的生成器和一個判別器組成;其中,生成器由編碼器和解碼器組成;編碼器部分由下采樣特征提取模塊和瓶頸模塊兩部分組成,下采樣模塊由三層卷積殘差塊組成,每一層通過兩次卷積操作提取圖像的特征,同時每次下采樣時將圖像尺寸減半并增加通道數(shù),以更好地捕捉圖像的多尺度特征;瓶頸模塊使用了九個fctr塊,每個fctr...

    【專利技術屬性】
    技術研發(fā)人員:聶梓偉徐邦彥,何健,李愛梅,吳婷,
    申請(專利權)人:南京大學
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲AV永久无码精品一福利| 国产精品白浆无码流出| 亚洲精品无码不卡| 人妻丰满熟妇AV无码区| 一本色道无码道在线观看| 久久AV无码精品人妻糸列| 亚洲成av人片在线观看天堂无码| 亚洲AV成人无码久久精品老人| 精品久久久久久无码人妻| 亚洲国产av高清无码| 亚洲AV无码国产在丝袜线观看| 国产av无码专区亚洲av毛片搜| 97碰碰碰人妻视频无码| 无码专区AAAAAA免费视频| 最新国产精品无码| 久久久久久无码国产精品中文字幕| 亚洲日韩精品A∨片无码加勒比| 亚洲伊人成无码综合网| 精品无码成人网站久久久久久| 精品无码久久久久久午夜| 亚洲中文字幕无码一区二区三区| 日韩美无码五月天| 成人免费无码大片A毛片抽搐色欲| 99无码精品二区在线视频| 亚洲AV无码不卡无码| 国产精品无码av在线播放| 国产精品99精品无码视亚| 亚洲gv猛男gv无码男同短文| 国产精品99久久久精品无码| 国产AV无码专区亚洲AWWW| 国产亚洲精品无码拍拍拍色欲| 亚洲精品无码99在线观看| 亚洲综合最新无码专区| 久久久久久无码国产精品中文字幕| YY111111少妇无码理论片| 国产成人无码精品一区二区三区| 亚洲精品无码成人片久久| 人妻无码第一区二区三区| 精品多人p群无码| 精品无码国产AV一区二区三区| 国产高清不卡无码视频|