System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 国产在线无码制服丝袜无码,中文无码熟妇人妻AV在线,久久亚洲国产成人精品无码区
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當前位置: 首頁 > 專利查詢>延安大學專利>正文

    基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法技術(shù)

    技術(shù)編號:43962661 閱讀:8 留言:0更新日期:2025-01-07 21:47
    本發(fā)明專利技術(shù)公開了基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,涉及圖像處理技術(shù)領(lǐng)域,包括以下步驟:構(gòu)建眼底數(shù)字孿生模型;將獲取的OCT和OCTA眼底圖像劃分為若干個網(wǎng)格區(qū)域并進行像素融合得到眼底融合圖像;將所述眼底融合圖像輸入至眼底數(shù)字孿生模型中進行關(guān)鍵區(qū)域的疊加和特征分割,并眼底融合關(guān)鍵區(qū)域檢測大模型基于圖像質(zhì)量評價指標計算若干個關(guān)鍵區(qū)域網(wǎng)格圖像和普通區(qū)域網(wǎng)格圖像的圖像質(zhì)量系數(shù),并計算關(guān)鍵區(qū)域圖像和普通區(qū)域圖像之間的質(zhì)量偏差系數(shù);基于質(zhì)量偏差系數(shù)與預設的質(zhì)量閾值對眼底融合圖像進行綜合評價,解決了目前眼底圖像因質(zhì)量不均勻、關(guān)鍵區(qū)域檢測準確率以及對圖像整體質(zhì)量的評估不充分的問題。

    【技術(shù)實現(xiàn)步驟摘要】

    本專利技術(shù)涉及圖像處理,更具體地說,本專利技術(shù)涉及基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法


    技術(shù)介紹

    1、眼底圖像是由專用眼底相機或光學相干斷層掃描(oct)技術(shù)獲取的,主要包括視網(wǎng)膜、視神經(jīng)盤、黃斑以及視網(wǎng)膜血管等關(guān)鍵解剖結(jié)構(gòu)。視神經(jīng)盤是眼底圖像中最為突出的亮黃色區(qū)域,位于眼底血管和視網(wǎng)膜神經(jīng)的源頭部位,常用于輔助青光眼等疾病的診斷;黃斑位于視網(wǎng)膜中央,是視覺最敏銳的區(qū)域,其病變可能導致視力下降和其他視覺障礙,常用于老年黃斑病變的診斷;而視網(wǎng)膜血管則有助于識別心血管疾病的跡象。

    2、例如公告號為:cn118196218b的專利技術(shù)專利公開的一種眼底圖像處理方法、裝置及設備,通過對眼底圖像進行第一分析處理,以計算確定所述眼底圖像的清晰度;對所述眼底圖像進行第二分析處理,以計算確定所述眼底圖像的色度分布;獲得清晰的目標場景圖片;基于所述眼底圖像對目標場景圖片進行風格遷移處理,形成模糊版目標場景圖片;基于所述清晰度、色度分布及模糊版場景圖片進行處理,形成用于模擬所述患者看向目標場景時的成像效果的模擬圖片。

    3、眼底圖像在采集過程中可能由于光照不均、運動模糊、焦距不準等因素導致圖像質(zhì)量下降,影響關(guān)鍵結(jié)構(gòu)(如視神經(jīng)盤、黃斑和視網(wǎng)膜血管等)的可見性和清晰度;此外眼底圖像的不同區(qū)域可能存在質(zhì)量差異,尤其是關(guān)鍵區(qū)域和普通區(qū)域之間。針對上述問題,本專利技術(shù)提出一種解決方案。


    技術(shù)實現(xiàn)思路

    1、為了克服現(xiàn)有技術(shù)的上述缺陷,本專利技術(shù)的實施例提供基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,通過基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,以解決目前眼底圖像因質(zhì)量不均勻、關(guān)鍵區(qū)域檢測準確率以及對圖像整體質(zhì)量的評估不充分的問題。

    2、為實現(xiàn)上述目的,本專利技術(shù)提供如下技術(shù)方案:

    3、基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,包括如下步驟:將獲取的oct和octa?眼底圖像劃分為若干個網(wǎng)格區(qū)域,計算每個網(wǎng)格區(qū)域的oct和octa?眼底圖像的像素值并進行融合,得到眼底融合圖像并進行預處理;

    4、將所述眼底融合圖像輸入至眼底數(shù)字孿生模型中進行關(guān)鍵區(qū)域的疊加和特征分割得到眼底融合圖像數(shù)據(jù)集,并將所述眼底融合圖像數(shù)據(jù)集輸入至預設的目標檢測大模型中進行訓練得到眼底融合關(guān)鍵區(qū)域檢測大模型;基于所述眼底融合關(guān)鍵區(qū)域檢測大模型檢測眼底融合圖像的關(guān)鍵區(qū)域,將眼底融合圖像中劃分為關(guān)鍵區(qū)域和普通區(qū)域,并將所述關(guān)鍵區(qū)域和普通區(qū)域劃分為若干個關(guān)鍵區(qū)域網(wǎng)格圖像和普通區(qū)域網(wǎng)格圖像;基于圖像質(zhì)量評價指標計算所述若干個關(guān)鍵區(qū)域網(wǎng)格圖像和普通區(qū)域網(wǎng)格圖像的圖像質(zhì)量系數(shù),并計算關(guān)鍵區(qū)域圖像和普通區(qū)域圖像之間的質(zhì)量偏差系數(shù);基于所述關(guān)鍵區(qū)域圖像和普通區(qū)域圖像之間的質(zhì)量偏差系數(shù)與預設的質(zhì)量閾值對眼底融合圖像進行綜合評價。

    5、在一個優(yōu)選的實施方式中,所述將獲取的oct和octa?眼底圖像劃分為若干個網(wǎng)格區(qū)域,計算每個網(wǎng)格區(qū)域的oct和octa?眼底圖像的像素值并進行融合,得到眼底融合圖像并進行預處理,具體為:將獲取的oct和octa?眼底圖像采用配準方法進行像素對齊,得到對齊后的oct和octa?眼底圖像;將所述對齊后的oct和octa?眼底圖像按相同的方式劃分為若干個網(wǎng)格區(qū)域,得到若干個對齊后的oct和octa?眼底網(wǎng)格圖像;分別計算所述若干個對齊后的oct和octa?眼底網(wǎng)格圖像的像素值;對所述若干個對齊后的oct和octa?眼底網(wǎng)格圖像的像素值進行加權(quán)融合,得到若干個網(wǎng)格區(qū)域的融合像素值;將每個網(wǎng)格區(qū)域的融合像素值逐網(wǎng)格拼接,得到眼底融合圖像。

    6、在一個優(yōu)選的實施方式中,所述將每個網(wǎng)格區(qū)域的融合像素值逐網(wǎng)格拼接,得到眼底融合圖像,具體為:對于網(wǎng)格區(qū)域的每一行,按照從左到右的順序?qū)⒃撔械乃芯W(wǎng)格的融合像素值進行水平拼接,得到每一行的完整融合區(qū)域;將所述每一行的完整融合區(qū)域進行垂直疊加,得到眼底融合圖像。

    7、在一個優(yōu)選的實施方式中,將所述眼底融合圖像輸入至眼底數(shù)字孿生模型中進行關(guān)鍵區(qū)域的疊加和特征分割得到眼底融合圖像數(shù)據(jù)集,并將所述眼底融合圖像數(shù)據(jù)集輸入至預設的目標檢測大模型中進行訓練得到眼底融合關(guān)鍵區(qū)域檢測大模型,具體為:將所述眼底融合圖像與患者實際圖像進行結(jié)合,得到患者的眼底孿生虛擬體;采用所述患者的眼底孿生虛擬體的幾何功能特征數(shù)據(jù)庫,匹配所述眼底融合圖像中的關(guān)鍵區(qū)域進行關(guān)鍵區(qū)域的疊加,所述關(guān)鍵區(qū)域指的是黃斑區(qū)域、視神經(jīng)乳頭區(qū)域以及血管密集區(qū)域;在眼底數(shù)字孿生模型中使用深度學習分割算法對關(guān)鍵區(qū)域進行細粒度分割,得到關(guān)鍵區(qū)域的精確邊界框,并將所述關(guān)鍵區(qū)域的精確邊界框保存為預設的訓練集格式得到眼底融合圖像數(shù)據(jù)集;將所述眼底融合圖像數(shù)據(jù)集按照預設的比例分為訓練集和測試集,將訓練集輸入至目標檢測大模型中進行大模型的訓練,得到訓練后的目標檢測大模型;

    8、在一個優(yōu)選的實施方式中,所述基于圖像質(zhì)量評價指標計算所述若干個關(guān)鍵區(qū)域網(wǎng)格圖像和普通區(qū)域網(wǎng)格圖像的圖像質(zhì)量系數(shù),具體為:基于圖像質(zhì)量評價指標分別計算所述若干個關(guān)鍵區(qū)域網(wǎng)格圖像和普通區(qū)域網(wǎng)格圖像的清晰度評估值、邊緣清晰度評估值、亮度評估值;將所述清晰度評估值、邊緣清晰度評估值、亮度評估值進行標準化,并進行加權(quán)求和得到若干個關(guān)鍵區(qū)域網(wǎng)格圖像和普通區(qū)域網(wǎng)格圖像的圖像質(zhì)量系數(shù)。

    9、在一個優(yōu)選的實施方式中,所述計算關(guān)鍵區(qū)域圖像和普通區(qū)域圖像之間的質(zhì)量偏差系數(shù),具體為:基于若干個關(guān)鍵區(qū)域網(wǎng)格圖像和普通區(qū)域網(wǎng)格圖像的圖像質(zhì)量系數(shù)采用幾何平均法計算得到關(guān)鍵區(qū)域圖像的第一質(zhì)量系數(shù)和普通區(qū)域的第一質(zhì)量系數(shù);基于所述關(guān)鍵區(qū)域圖像的第一質(zhì)量系數(shù)和普通區(qū)域的第一質(zhì)量系數(shù),計算得到關(guān)鍵區(qū)域圖像的平均質(zhì)量系數(shù)和普通區(qū)域圖像的平均質(zhì)量系數(shù);計算所述關(guān)鍵區(qū)域圖像和普通區(qū)域圖像的圖像質(zhì)量相似性指數(shù),并基于所述圖像質(zhì)量相似性指數(shù)得到關(guān)鍵區(qū)域圖像和普通區(qū)域圖像之間的質(zhì)量偏差系數(shù)。

    10、在一個優(yōu)選的實施方式中,基于所述關(guān)鍵區(qū)域圖像和普通區(qū)域圖像之間的質(zhì)量偏差系數(shù)與預設的質(zhì)量閾值對眼底融合圖像進行綜合評價,具體為:當關(guān)鍵區(qū)域圖像和普通區(qū)域圖像之間的質(zhì)量偏差系數(shù)小于預設的質(zhì)量閾值時,圖像質(zhì)量合格;當關(guān)鍵區(qū)域圖像和普通區(qū)域圖像之間的質(zhì)量偏差系數(shù)大于預設的質(zhì)量閾值時,圖像質(zhì)量不合格。

    11、本專利技術(shù)基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法的技術(shù)效果和優(yōu)點:

    12、1.本專利技術(shù)通過整合患者多次采集的oct和octa眼底圖像及病理數(shù)據(jù),結(jié)合深度學習大模型構(gòu)建眼底數(shù)字孿生模型,具有顯著優(yōu)點。首先,該模型實現(xiàn)了患者個性化的動態(tài)建模,能夠精確模擬視網(wǎng)膜的解剖結(jié)構(gòu)及病變特征,提供個體化診療支持;其次,數(shù)字孿生技術(shù)生成多樣化的模擬場景和數(shù)據(jù)增強,有助于提升模型的泛化能力;第三,孿生體在數(shù)據(jù)處理過程中實現(xiàn)了自動化標注與特征分割,顯著提高了標注效率和準確性,減少人工干預;此外,該模型通過實時反饋機制優(yōu)化診斷和預測結(jié)果,支持復雜病變的動態(tài)評估;最后,眼底數(shù)字孿生模型不僅提升了臨床決策的科學性和可靠性,還為疾病進程監(jiān)控和治療方案設計提供了仿本文檔來自技高網(wǎng)...

    【技術(shù)保護點】

    1.基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,包括以下步驟:

    2.根據(jù)權(quán)利要求1所述的基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,所述將獲取的OCT和OCTA?眼底圖像劃分為若干個網(wǎng)格區(qū)域,計算每個網(wǎng)格區(qū)域的OCT和OCTA?眼底圖像的像素值并進行融合,得到眼底融合圖像并進行預處理,具體為:

    3.根據(jù)權(quán)利要求2所述的基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,所述將每個網(wǎng)格區(qū)域的融合像素值逐網(wǎng)格拼接,得到眼底融合圖像,具體為:

    4.根據(jù)權(quán)利要求3所述的基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,所述構(gòu)建眼底數(shù)字孿生模型,基于預設的眼底融合關(guān)鍵區(qū)域檢測大模型檢測眼底融合圖像的關(guān)鍵區(qū)域,具體為:

    5.根據(jù)權(quán)利要求4所述的基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,所述基于圖像質(zhì)量評價指標計算所述若干個關(guān)鍵區(qū)域網(wǎng)格圖像和普通區(qū)域網(wǎng)格圖像的圖像質(zhì)量系數(shù),具體為:

    6.根據(jù)權(quán)利要求5所述的基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,所述計算關(guān)鍵區(qū)域圖像和普通區(qū)域圖像之間的質(zhì)量偏差系數(shù),具體為:

    7.根據(jù)權(quán)利要求6所述的基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,基于所述關(guān)鍵區(qū)域圖像和普通區(qū)域圖像之間的質(zhì)量偏差系數(shù)與預設的質(zhì)量閾值對眼底融合圖像進行綜合評價,具體為:

    8.根據(jù)權(quán)利要求7所述的基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,分別計算所述若干個對齊后的OCT和OCTA?眼底網(wǎng)格圖像的像素值,具體公式為:

    9.根據(jù)權(quán)利要求8所述的基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,所述基于圖像質(zhì)量評價指標分別計算所述若干個關(guān)鍵區(qū)域網(wǎng)格圖像和普通區(qū)域網(wǎng)格圖像的清晰度評估值、邊緣清晰度評估值、亮度評估值,具體公式為:

    10.根據(jù)權(quán)利要求9所述的基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,計算所述關(guān)鍵區(qū)域圖像和普通區(qū)域圖像的圖像質(zhì)量相似性指數(shù),具體公式為:

    ...

    【技術(shù)特征摘要】

    1.基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,包括以下步驟:

    2.根據(jù)權(quán)利要求1所述的基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,所述將獲取的oct和octa?眼底圖像劃分為若干個網(wǎng)格區(qū)域,計算每個網(wǎng)格區(qū)域的oct和octa?眼底圖像的像素值并進行融合,得到眼底融合圖像并進行預處理,具體為:

    3.根據(jù)權(quán)利要求2所述的基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,所述將每個網(wǎng)格區(qū)域的融合像素值逐網(wǎng)格拼接,得到眼底融合圖像,具體為:

    4.根據(jù)權(quán)利要求3所述的基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,所述構(gòu)建眼底數(shù)字孿生模型,基于預設的眼底融合關(guān)鍵區(qū)域檢測大模型檢測眼底融合圖像的關(guān)鍵區(qū)域,具體為:

    5.根據(jù)權(quán)利要求4所述的基于數(shù)字孿生與視神經(jīng)成像融合的眼底圖像評價方法,其特征在于,所述基于圖像質(zhì)量評價指標計算所述若干個關(guān)鍵區(qū)域網(wǎng)格圖像和普通區(qū)域網(wǎng)格圖像的圖像質(zhì)量系數(shù),具體為:

    6.根據(jù)...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:強京靈張蓓張欣王金志張江波吳寧勇楊永利
    申請(專利權(quán))人:延安大學
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲爆乳无码专区www| 成人麻豆日韩在无码视频| 2020无码专区人妻系列日韩| 麻豆国产精品无码视频| 午夜无码A级毛片免费视频| 无码精品视频一区二区三区| 自拍偷在线精品自拍偷无码专区| 无码日韩精品一区二区三区免费| 亚洲Av无码专区国产乱码DVD| 波多野结衣AV无码| 熟妇人妻系列aⅴ无码专区友真希| H无码精品3D动漫在线观看| 亚洲av永久无码精品秋霞电影影院| 无码h黄动漫在线播放网站| 一本色道无码道在线观看| 好了av第四综合无码久久| 久久久久琪琪去精品色无码| 亚洲av永久无码一区二区三区| 亚洲中文字幕无码不卡电影| 国产日韩精品无码区免费专区国产| 蕾丝av无码专区在线观看| 亚洲爆乳精品无码一区二区三区| 无码中文字幕日韩专区| 色综合AV综合无码综合网站| 国产精品xxxx国产喷水亚洲国产精品无码久久一区| 无码欧精品亚洲日韩一区| 成人免费无码大片a毛片| 日木av无码专区亚洲av毛片| 日韩电影无码A不卡| 无码乱码av天堂一区二区| 亚洲精品一级无码鲁丝片| 亚洲日韩精品无码专区网站| 国内精品人妻无码久久久影院| 国精品无码A区一区二区| 一本一道中文字幕无码东京热| 久久亚洲精品AB无码播放| 亚洲av中文无码字幕色不卡| 亚洲精品无码永久在线观看男男| 无码人妻精品一区二| 亚洲国产精品无码专区在线观看| 久久久久亚洲av无码专区喷水|