System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 亚洲AV永久无码精品一百度影院,免费无码中文字幕A级毛片,无码精品人妻一区二区三区人妻斩
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于模型微調(diào)的細(xì)胞圖像識別方法及系統(tǒng)技術(shù)方案

    技術(shù)編號:44352162 閱讀:2 留言:0更新日期:2025-02-25 09:37
    本發(fā)明專利技術(shù)涉及數(shù)據(jù)處理技術(shù)領(lǐng)域,公開了一種基于模型微調(diào)的細(xì)胞圖像識別方法及系統(tǒng),該方法包括:獲取包括有細(xì)胞圖像的待識別圖像;將所述待識別圖像輸入至訓(xùn)練好的細(xì)胞清晰度識別模型,以得到對應(yīng)的細(xì)胞清晰度;將所述待識別圖像輸入至訓(xùn)練好的細(xì)胞存在區(qū)域識別模型,以得到對應(yīng)的存在細(xì)胞區(qū)域圖像;將所述存在細(xì)胞區(qū)域圖像以及所述細(xì)胞清晰度,輸入至訓(xùn)練好的細(xì)胞分類模型中,得到對應(yīng)的多個(gè)細(xì)胞區(qū)域和對應(yīng)的細(xì)胞類型;所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型基于聯(lián)合訓(xùn)練和微調(diào)得到??梢姡景l(fā)明專利技術(shù)能夠充分利用清晰度因素和先驗(yàn)區(qū)域識別來精確識別圖像中的細(xì)胞區(qū)域和類型,提高細(xì)胞識別的精度和效率。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)涉及數(shù)據(jù)處理,尤其涉及一種基于模型微調(diào)的細(xì)胞圖像識別方法及系統(tǒng)。


    技術(shù)介紹

    1、隨著圖像處理技術(shù)的發(fā)展和醫(yī)學(xué)輔助影像技術(shù)的普及,越來越多的生物細(xì)胞圖像被用于疾病研究或治療用途,如何有效地對生物組織圖像中的細(xì)胞區(qū)域進(jìn)行識別和分割,成為了核心的技術(shù)問題。但現(xiàn)有的細(xì)胞圖像識別技術(shù)在實(shí)現(xiàn)細(xì)胞識別時(shí)一般僅借助基于細(xì)胞標(biāo)注圖像對常見的圖像識別算法模型進(jìn)行訓(xùn)練以用于識別,沒有進(jìn)一步根據(jù)細(xì)胞識別流程中的不同環(huán)節(jié)和清晰度影響因素來構(gòu)建獨(dú)特的算法模型以用于識別,因此其細(xì)胞識別的效率和精確度均有所欠缺。可見,現(xiàn)有技術(shù)存在缺陷,亟待解決。


    技術(shù)實(shí)現(xiàn)思路

    1、本專利技術(shù)所要解決的技術(shù)問題在于,提供一種基于模型微調(diào)的細(xì)胞圖像識別方法及系統(tǒng),能夠充分利用清晰度因素和先驗(yàn)區(qū)域識別來精確識別圖像中的細(xì)胞區(qū)域和類型,提高細(xì)胞識別的精度和效率,為疾病治療或研究提供準(zhǔn)確的數(shù)據(jù)基礎(chǔ)。

    2、為了解決上述技術(shù)問題,本專利技術(shù)第一方面公開了一種基于模型微調(diào)的細(xì)胞圖像識別方法,所述方法包括:

    3、獲取包括有細(xì)胞圖像的待識別圖像;

    4、將所述待識別圖像輸入至訓(xùn)練好的細(xì)胞清晰度識別模型,以得到對應(yīng)的細(xì)胞清晰度;

    5、將所述待識別圖像輸入至訓(xùn)練好的細(xì)胞存在區(qū)域識別模型,以得到對應(yīng)的存在細(xì)胞區(qū)域圖像;

    6、將所述存在細(xì)胞區(qū)域圖像以及所述細(xì)胞清晰度,輸入至訓(xùn)練好的細(xì)胞分類模型中,得到對應(yīng)的多個(gè)細(xì)胞區(qū)域和對應(yīng)的細(xì)胞類型;所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型基于聯(lián)合訓(xùn)練和微調(diào)得到。

    7、作為一個(gè)可選的實(shí)施方式,在本專利技術(shù)第一方面中,所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型基于同一訓(xùn)練數(shù)據(jù)集進(jìn)行聯(lián)合訓(xùn)練得到;所述訓(xùn)練數(shù)據(jù)集中包括有多個(gè)訓(xùn)練圖像和對應(yīng)的細(xì)胞區(qū)域標(biāo)注、細(xì)胞類型標(biāo)注和細(xì)胞清晰度標(biāo)注。

    8、作為一個(gè)可選的實(shí)施方式,在本專利技術(shù)第一方面中,所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型通過以下步驟訓(xùn)練得到:

    9、將所述訓(xùn)練數(shù)據(jù)集輸入至所述細(xì)胞清晰度識別模型和所述細(xì)胞存在區(qū)域識別模型進(jìn)行訓(xùn)練直至兩者的第一預(yù)測準(zhǔn)確率達(dá)到預(yù)設(shè)的第一準(zhǔn)確率閾值;

    10、對所述細(xì)胞清晰度識別模型和所述細(xì)胞存在區(qū)域識別模型的模型權(quán)重進(jìn)行凍結(jié),將所述訓(xùn)練數(shù)據(jù)集輸入至所述細(xì)胞分類模型進(jìn)行訓(xùn)練直至其第二預(yù)測準(zhǔn)確率達(dá)到預(yù)設(shè)的第二準(zhǔn)確率閾值;所述第二準(zhǔn)確率閾值大于所述第一準(zhǔn)確率閾值;

    11、對所述細(xì)胞清晰度識別模型和所述細(xì)胞存在區(qū)域識別模型的模型權(quán)重進(jìn)行解凍,并將所述訓(xùn)練數(shù)據(jù)集同時(shí)輸入至所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型中進(jìn)行聯(lián)合訓(xùn)練直至三者的第三預(yù)測準(zhǔn)確率達(dá)到預(yù)設(shè)的第三準(zhǔn)確率閾值,得到訓(xùn)練好的所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型;所述第三準(zhǔn)確率閾值大于所述第二準(zhǔn)確率閾值。

    12、作為一個(gè)可選的實(shí)施方式,在本專利技術(shù)第一方面中,所述細(xì)胞清晰度識別模型為卷積神經(jīng)網(wǎng)絡(luò),其在訓(xùn)練中采用l1損失作為損失函數(shù);所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型均為全卷積神經(jīng)網(wǎng)絡(luò),在訓(xùn)練中采用交叉熵?fù)p失函數(shù)作為損失函數(shù)進(jìn)行訓(xùn)練。

    13、作為一個(gè)可選的實(shí)施方式,在本專利技術(shù)第一方面中,在將所述訓(xùn)練數(shù)據(jù)集同時(shí)輸入至所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型中進(jìn)行聯(lián)合訓(xùn)練時(shí),所述聯(lián)合訓(xùn)練中采用的損失函數(shù)為第一損失函數(shù)值、第二損失函數(shù)值和第三損失函數(shù)值的加權(quán)求和;其中:

    14、所述第一損失函數(shù)值為所述細(xì)胞清晰度識別模型輸出的預(yù)測清晰度和對應(yīng)的所述細(xì)胞清晰度標(biāo)注之間的差異度,其對應(yīng)的權(quán)重與當(dāng)次輸入數(shù)據(jù)中所有訓(xùn)練圖像對應(yīng)的細(xì)胞清晰度標(biāo)注的方差成正比;

    15、所述第二損失函數(shù)值為所述細(xì)胞存在區(qū)域識別模型輸出的預(yù)測細(xì)胞存在區(qū)域和對應(yīng)的所有所述細(xì)胞區(qū)域標(biāo)注之間的交叉熵,其對應(yīng)的權(quán)重與當(dāng)次輸入數(shù)據(jù)中所有訓(xùn)練圖像對應(yīng)的所有細(xì)胞區(qū)域標(biāo)注的區(qū)域并集的總區(qū)域面積成正比;

    16、所述第三損失函數(shù)值為所述細(xì)胞分類模型輸出的預(yù)測細(xì)胞區(qū)域和預(yù)測類型和對應(yīng)的所述細(xì)胞區(qū)域標(biāo)注和細(xì)胞類型標(biāo)注之間的交叉熵,其對應(yīng)的權(quán)重與當(dāng)次輸入數(shù)據(jù)中所有訓(xùn)練圖像對應(yīng)的所有細(xì)胞類型標(biāo)注對應(yīng)的總類型數(shù)量成正比。

    17、作為一個(gè)可選的實(shí)施方式,在本專利技術(shù)第一方面中,所述細(xì)胞類型為panck+細(xì)胞、cd3+細(xì)胞、cd8-細(xì)胞或cd8+細(xì)胞。

    18、作為一個(gè)可選的實(shí)施方式,在本專利技術(shù)第一方面中,所述訓(xùn)練數(shù)據(jù)集通過以下步驟得到:

    19、獲取多個(gè)訓(xùn)練圖像;

    20、基于操作人員的標(biāo)注,確定每一所述訓(xùn)練圖像對應(yīng)的細(xì)胞核位置標(biāo)注和細(xì)胞類型標(biāo)注;

    21、對于每一所述細(xì)胞核位置標(biāo)注,獲取該細(xì)胞核位置標(biāo)注對應(yīng)的所述細(xì)胞類型標(biāo)注對應(yīng)的細(xì)胞類型輪廓;

    22、基于所述細(xì)胞類型輪廓,以所述細(xì)胞核位置標(biāo)注的位置為中心進(jìn)行輪廓生成,以得到對應(yīng)的所述細(xì)胞區(qū)域標(biāo)注;

    23、根據(jù)所述操作人員對每一所述訓(xùn)練圖像的標(biāo)注用時(shí),確定每一所述訓(xùn)練圖像對應(yīng)的細(xì)胞清晰度標(biāo)注。

    24、作為一個(gè)可選的實(shí)施方式,在本專利技術(shù)第一方面中,所述訓(xùn)練數(shù)據(jù)集的獲取步驟中的,根據(jù)所述操作人員對每一所述訓(xùn)練圖像的標(biāo)注用時(shí),確定每一所述訓(xùn)練圖像對應(yīng)的細(xì)胞清晰度標(biāo)注,包括:

    25、對于每一所述訓(xùn)練圖像,獲取所述操作人員在該訓(xùn)練圖像上的標(biāo)注光標(biāo)移動軌跡和對應(yīng)的移動速度;

    26、從該訓(xùn)練圖像的多個(gè)圖像區(qū)域中篩選出對應(yīng)的所述細(xì)胞區(qū)域標(biāo)注的標(biāo)注數(shù)量大于預(yù)設(shè)的數(shù)量閾值的多個(gè)細(xì)胞密集區(qū)域;

    27、計(jì)算每一所述細(xì)胞密集區(qū)域中的所述標(biāo)注光標(biāo)移動軌跡的軌跡部分的長度和對應(yīng)的所述移動速度的乘積,得到每一所述細(xì)胞密集區(qū)域?qū)?yīng)的區(qū)域標(biāo)注移動用時(shí);

    28、計(jì)算所有所述細(xì)胞密集區(qū)域?qū)?yīng)的區(qū)域標(biāo)注移動用時(shí)的加權(quán)求和平均值,得到該訓(xùn)練圖像對應(yīng)的細(xì)胞清晰度標(biāo)注;其中,每一所述細(xì)胞密集區(qū)域?qū)?yīng)的區(qū)域標(biāo)注移動用時(shí)對應(yīng)的權(quán)重與該細(xì)胞密集區(qū)域?qū)?yīng)的所述標(biāo)注數(shù)量成反比。

    29、本專利技術(shù)實(shí)施例第二方面公開了一種基于模型微調(diào)的細(xì)胞圖像識別系統(tǒng),所述系統(tǒng)包括:

    30、獲取模塊,用于獲取包括有細(xì)胞圖像的待識別圖像;

    31、第一識別模塊,用于將所述待識別圖像輸入至訓(xùn)練好的細(xì)胞清晰度識別模型,以得到對應(yīng)的細(xì)胞清晰度;

    32、第二識別模塊,用于將所述待識別圖像輸入至訓(xùn)練好的細(xì)胞存在區(qū)域識別模型,以得到對應(yīng)的存在細(xì)胞區(qū)域圖像;

    33、第三識別模塊,用于將所述存在細(xì)胞區(qū)域圖像以及所述細(xì)胞清晰度,輸入至訓(xùn)練好的細(xì)胞分類模型中,得到對應(yīng)的多個(gè)細(xì)胞區(qū)域和對應(yīng)的細(xì)胞類型;所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型基于聯(lián)合訓(xùn)練和微調(diào)得到。

    34、作為一個(gè)可選的實(shí)施方式,在本專利技術(shù)第二方面中,所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型基于同一訓(xùn)練數(shù)據(jù)集進(jìn)行聯(lián)合訓(xùn)練得到本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.一種基于模型微調(diào)的細(xì)胞圖像識別方法,其特征在于,所述方法包括:

    2.根據(jù)權(quán)利要求1所述的基于模型微調(diào)的細(xì)胞圖像識別方法,其特征在于,所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型基于同一訓(xùn)練數(shù)據(jù)集進(jìn)行聯(lián)合訓(xùn)練得到;所述訓(xùn)練數(shù)據(jù)集中包括有多個(gè)訓(xùn)練圖像和對應(yīng)的細(xì)胞區(qū)域標(biāo)注、細(xì)胞類型標(biāo)注和細(xì)胞清晰度標(biāo)注。

    3.根據(jù)權(quán)利要求2所述的基于模型微調(diào)的細(xì)胞圖像識別方法,其特征在于,所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型通過以下步驟訓(xùn)練得到:

    4.根據(jù)權(quán)利要求3所述的基于模型微調(diào)的細(xì)胞圖像識別方法,其特征在于,所述細(xì)胞清晰度識別模型為卷積神經(jīng)網(wǎng)絡(luò),其在訓(xùn)練中采用L1損失作為損失函數(shù);所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型均為全卷積神經(jīng)網(wǎng)絡(luò),在訓(xùn)練中采用交叉熵?fù)p失函數(shù)作為損失函數(shù)進(jìn)行訓(xùn)練。

    5.根據(jù)權(quán)利要求3所述的基于模型微調(diào)的細(xì)胞圖像識別方法,其特征在于,在將所述訓(xùn)練數(shù)據(jù)集同時(shí)輸入至所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型中進(jìn)行聯(lián)合訓(xùn)練時(shí),所述聯(lián)合訓(xùn)練中采用的損失函數(shù)為第一損失函數(shù)值、第二損失函數(shù)值和第三損失函數(shù)值的加權(quán)求和;其中:

    6.根據(jù)權(quán)利要求1所述的基于模型微調(diào)的細(xì)胞圖像識別方法,其特征在于,所述細(xì)胞類型為PanCK+細(xì)胞、CD3+細(xì)胞、CD8-細(xì)胞或CD8+細(xì)胞。

    7.根據(jù)權(quán)利要求2所述的基于模型微調(diào)的細(xì)胞圖像識別方法,其特征在于,所述訓(xùn)練數(shù)據(jù)集通過以下步驟得到:

    8.根據(jù)權(quán)利要求7所述的基于模型微調(diào)的細(xì)胞圖像識別方法,其特征在于,所述訓(xùn)練數(shù)據(jù)集的獲取步驟中的,根據(jù)所述操作人員對每一所述訓(xùn)練圖像的標(biāo)注用時(shí),確定每一所述訓(xùn)練圖像對應(yīng)的細(xì)胞清晰度標(biāo)注,包括:

    9.一種基于模型微調(diào)的細(xì)胞圖像識別系統(tǒng),其特征在于,所述系統(tǒng)包括:

    10.一種基于模型微調(diào)的細(xì)胞圖像識別系統(tǒng),其特征在于,所述系統(tǒng)包括:

    ...

    【技術(shù)特征摘要】

    1.一種基于模型微調(diào)的細(xì)胞圖像識別方法,其特征在于,所述方法包括:

    2.根據(jù)權(quán)利要求1所述的基于模型微調(diào)的細(xì)胞圖像識別方法,其特征在于,所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型基于同一訓(xùn)練數(shù)據(jù)集進(jìn)行聯(lián)合訓(xùn)練得到;所述訓(xùn)練數(shù)據(jù)集中包括有多個(gè)訓(xùn)練圖像和對應(yīng)的細(xì)胞區(qū)域標(biāo)注、細(xì)胞類型標(biāo)注和細(xì)胞清晰度標(biāo)注。

    3.根據(jù)權(quán)利要求2所述的基于模型微調(diào)的細(xì)胞圖像識別方法,其特征在于,所述細(xì)胞清晰度識別模型、所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型通過以下步驟訓(xùn)練得到:

    4.根據(jù)權(quán)利要求3所述的基于模型微調(diào)的細(xì)胞圖像識別方法,其特征在于,所述細(xì)胞清晰度識別模型為卷積神經(jīng)網(wǎng)絡(luò),其在訓(xùn)練中采用l1損失作為損失函數(shù);所述細(xì)胞存在區(qū)域識別模型和所述細(xì)胞分類模型均為全卷積神經(jīng)網(wǎng)絡(luò),在訓(xùn)練中采用交叉熵?fù)p失函數(shù)作為損失函數(shù)進(jìn)行訓(xùn)練。

    5.根據(jù)權(quán)利要求3所述的基于模型微調(diào)的細(xì)胞圖像識別方法,其特征在...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:彭作富加赟,張文盼,
    申請(專利權(quán))人:艾克發(fā)北京生物技術(shù)有限公司,
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲AⅤ永久无码精品AA| 无码日韩人妻AV一区免费l| 久久精品国产亚洲AV无码麻豆| 亚洲AV无码成人精品区在线观看| 久久国产精品无码一区二区三区| 亚洲a∨无码男人的天堂| 国产成人年无码AV片在线观看 | a级毛片无码免费真人久久| 一本大道东京热无码一区| 无码国产精品一区二区免费式直播 | 无码日韩人妻精品久久| 久久青草亚洲AV无码麻豆| 亚洲高清无码综合性爱视频| 精品国产一区二区三区无码| 国产成人无码专区| 中文字幕精品三区无码亚洲| 国产精品亚洲аv无码播放| 永久无码精品三区在线4| 亚洲AV无码一区二区三区久久精品 | 影院无码人妻精品一区二区| 成人无码AV一区二区| 国产精品久久无码一区二区三区网 | 亚洲大尺度无码无码专区| 日韩无码系列综合区| 黄色成人网站免费无码av| 久久精品国产亚洲AV无码麻豆| 亚洲国产成人精品无码区在线观看| 精品久久久久久无码人妻| 亚洲成a人无码亚洲成av无码| 无码h黄动漫在线播放网站| 国产成人无码久久久精品一| 久久无码一区二区三区少妇 | 中文字幕无码日韩专区免费| 蕾丝av无码专区在线观看| 国外AV无码精品国产精品| (无码视频)在线观看| 国产乱人伦无无码视频试看| 无码国产亚洲日韩国精品视频一区二区三区| 亚洲精品9999久久久久无码| 亚洲AV无码男人的天堂| 成在人线AV无码免费|