System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術實現步驟摘要】
本專利技術屬于人工智能領域,具體是一種基于聯邦學習的自監督預訓練方法,專注于醫學圖像分割,尤其針對肝癌的檢測與診斷。
技術介紹
1、醫學圖像分割是計算機視覺領域中的關鍵任務,旨在從醫學影像中準確提取出腫瘤、器官等感興趣區域,以輔助臨床診斷和治療決策。對于肝癌的圖像分割而言,早期檢測與治療規劃至關重要,可顯著提高患者的生存率。然而,傳統醫學圖像分割方法通常依賴于監督學習,需要大量來自多個醫療中心的標注數據,這在醫學實踐中往往難以實現,尤其是在數據隱私和倫理問題日益受到重視的背景下。
2、為解決這一挑戰,自監督學習和聯邦學習技術逐漸受到關注。自監督學習利用大量無標簽數據進行特征自我學習,增強了模型的泛化能力,適應不同數據分布。而聯邦學習則允許在多個醫療中心的分布式數據上進行模型訓練,既保護患者隱私,又提高了模型在多樣性數據上的準確性。結合這兩種先進技術,可以在多中心環境中高效開展肝癌圖像的自監督預訓練,顯著提升模型在下游任務中的表現,從而推動醫學圖像分析的進步,促進精準醫療的發展。
3、基于聯邦學習框架對醫學圖像進行分割的優勢在于能夠在多個中心的數據上聯合訓練,既解決了數據標注短缺問題,又保護了患者隱私。常用的聯邦方法包括fedavg、fedprox、fedbn和moon。fedavg通過將任務分解為局部模型訓練和全局模型聚合,實現了數據隱私保護和模型訓練的結合。各節點在本地訓練生成權重,并通過平均聚合更新全局模型。其優點在于高效利用分布式數據進行訓練,同時減少了數據存儲需求,提高了模型泛化能力。fedpro
4、盡管聯邦學習能夠保護數據隱私并在多個中心聯合訓練,但其訓練過程仍然依賴大量完全標注的圖像。然而,在實際應用中,尤其是多中心的場景下,常常存在數據豐富但標注稀缺的情況。為此,可以結合自監督方法,對不同中心的醫療數據進行自監督訓練,廣泛學習語義特征。這不僅增加了客戶端的參與數量,提升了模型的泛化能力,還減輕了醫院處理數據的負擔。目前,在醫療數據的自監督任務中,selfmedmae是一個基于重建學習的自監督預訓練框架。它通過將大量無標簽數據切成等體積的塊,并將其視為序列,隨機遮掩部分塊作為重建目標,在恢復完整圖像的過程中,基于vit的編碼器能夠在無標注的情況下學習到豐富的語義知識,從而在后續任務中實現更精準的分割。
技術實現思路
1、鑒于現有技術中存在的缺點,本專利技術的目的是提供一種基于聯邦學習的自監督預訓練方法,以應對多中心環境下數據標注匱乏和患者隱私保護難題。該方法旨在增加模型的泛化能力,提高醫學圖像中病灶分割的準確度,從而為肝癌等重大疾病的早期檢測和診斷提供更為可靠的支持。同時,通過利用聯邦學習的框架,各參與醫院中心能夠在不共享原始患者數據的前提下進行聯合訓練,切實保障患者信息的隱私安全。這一創新方法不僅促進了數據的高效利用,還為實現精準醫療打下了堅實基礎,為臨床醫生提供更準確的影像分析工具,助力提升整體醫療服務質量。
2、為解決現有技術存在的問題,本專利技術提供一種基于聯邦學習的自監督預訓練方法,該方法采用掩碼自編碼器進行醫學圖像分析,包括以下步驟:
3、1)首先對每個客戶端的輸入醫學圖像隨機75%區域進行掩蔽,預訓練模型使用vit編碼器聚合未被掩蔽區域的上下文信息,從而推斷掩蔽部分的內容,使用mse函數作為重建損失,重建掩蔽部分的完整圖像;
4、2)客戶端通過步驟1)獲得的vit編碼器嵌入向量通過mlp多層感知機層轉換成更高維的特征表示,上傳嵌入向量至中央服務器進行對比學習,以更新客戶端參數,進而聚合得到全局模型并分發更新后的參數給各客戶端;
5、3)客戶端利用這些參數進行本地訓練和優化,重復上傳更新的參數以進一步改進模型,直至模型達到預期性能水平。
6、作為本專利技術優選的方案,客戶端訓練的模型框架包括一個用于學習醫學圖像特征的vit編碼器、一個用于圖像重建的transformer解碼器以及一個用于將嵌入向量轉化為更高維、更復雜特征表示的mlp。
7、作為本專利技術優選的方案,所述vit編碼器將醫學圖像數據轉化為高維特征表示,具體通過將被隨機掩蔽圖像分割成小塊并將其線性嵌入到固定維度的向量空間中,結合自注意力機制以捕捉小塊之間的關系,提取圖像的全局特征。
8、作為本專利技術優選的方案,步驟2)中,客戶端將通過mlp后的高維特征傳輸到中央服務器,使用自監督對比學習獲得的對比損失更新客戶端。
9、作為本專利技術優選的方案,將重建損失、自監督對比損失和交叉熵損失按照一定的參數比相加得到混合損失,使用混合損失更局部客戶端模型參數。
10、作為本專利技術優選的方案,針對當前第t輪的通信訓練,包括如下步驟:
11、步驟1,中央服務器將當前t輪的全局模型發送給各個客戶端,由客戶端來對當前的全局模型進行處理,訓練當前輪的局部模型;
12、步驟2,客戶端保存著當前需要進行訓練的局部模型、中央服務器上一輪傳回的全局模型和上一輪訓練得到的局部模型,客戶端對本地掩蔽圖像進行重建任務,重建損失函數如公式(1)所示:
13、
14、其中,n表示客戶端參與圖像數據的數量,yi是第i個圖像數據的實際目標值,是模型對第i個圖像數據的預測值;
15、同時,從vit編碼器經過mlp后的高維特征,使用自監督對比損失和交叉熵損失的混合損失函數進行訓練,自監督對比損失函數如公式(2)所示:
16、
17、其中,sim()表示余弦相似度函數,τ為溫度參數,用于控制損失值,保證損失的收斂,代表當第t輪的局部模型學習的特征表示,代表第t-1輪的局部模型學習的特征表示,代表第t-1輪的全局模型學習的特征表示;
18、將三者損失函數按照一定的參數比相加得到訓練混合損失函數公式如(3)所示:
19、
20、其中,s為當前訓練的本地數據集樣本,為當前第t輪待訓練的局部模型,為第t-1輪的局部模型,為第t-1輪的全局模型,μ為用于控制自監督對比損失權重的超參數;
21、步驟3,每個客戶端在本地訓練結束之后,將訓練好的局部模型發送給中央服務器,以供中央服務器進行模型聚合;
22、步驟4,中央服務器在收集完所有客戶端的局部模型后,使用加權平均的方式進行模型聚合,得到第t輪的全局模型,至此,第t輪通信訓練完成;開始重回步驟1進行下一輪通信訓練;總體的優化目標如公式(4)所示:
23、<本文檔來自技高網...
【技術保護點】
1.一種基于聯邦學習的自監督預訓練方法,其特征在于:采用掩碼自編碼器進行醫學圖像分析,該方法包括以下步驟:
2.根據權利要求1所述的基于聯邦學習的自監督預訓練方法,其特征在于:客戶端訓練的模型框架包括一個用于學習醫學圖像特征的ViT編碼器、一個用于圖像重建的Transformer解碼器以及一個用于將嵌入向量轉化為更高維、更復雜特征表示的MLP。
3.根據權利要求1或2所述的基于聯邦學習的自監督預訓練方法,其特征在于:所述ViT編碼器將醫學圖像數據轉化為高維特征表示,具體通過將被隨機掩蔽圖像分割成小塊并將其線性嵌入到固定維度的向量空間中,結合自注意力機制以捕捉小塊之間的關系,提取圖像的全局特征。
4.根據權利要求3所述的基于聯邦學習的自監督預訓練方法,其特征在于:步驟2)中,客戶端將通過MLP后的高維特征傳輸到中央服務器,使用自監督對比學習獲得的對比損失更新客戶端。
5.根據權利要求4所述的基于聯邦學習的自監督預訓練方法,其特征在于:將重建損失、自監督對比損失和交叉熵損失按照一定的參數比相加得到混合損失,使用混合損失更局部客戶端模型參
6.根據權利要求1所述的基于聯邦學習的自監督預訓練方法,其特征在于:
...【技術特征摘要】
1.一種基于聯邦學習的自監督預訓練方法,其特征在于:采用掩碼自編碼器進行醫學圖像分析,該方法包括以下步驟:
2.根據權利要求1所述的基于聯邦學習的自監督預訓練方法,其特征在于:客戶端訓練的模型框架包括一個用于學習醫學圖像特征的vit編碼器、一個用于圖像重建的transformer解碼器以及一個用于將嵌入向量轉化為更高維、更復雜特征表示的mlp。
3.根據權利要求1或2所述的基于聯邦學習的自監督預訓練方法,其特征在于:所述vit編碼器將醫學圖像數據轉化為高維特征表示,具體通過將被隨機掩蔽圖像分割成小塊并將其線性嵌...
【專利技術屬性】
技術研發人員:劉振丙,李煥蘭,路皓翔,王琳,楊輝華,梁香元,
申請(專利權)人:桂林電子科技大學,
類型:發明
國別省市:
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。