System.ArgumentOutOfRangeException: 索引和長(zhǎng)度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術(shù)實(shí)現(xiàn)步驟摘要】
本申請(qǐng)涉及機(jī)器學(xué)習(xí),尤其涉及一種機(jī)器學(xué)習(xí)模型微調(diào)方法、系統(tǒng)、服務(wù)器和客戶端。
技術(shù)介紹
1、為了提高transformer等機(jī)器學(xué)習(xí)模型在特定任務(wù)中的處理能力,經(jīng)常需要對(duì)機(jī)器學(xué)習(xí)模型進(jìn)行微調(diào)。目前,考慮到對(duì)數(shù)據(jù)隱私的保護(hù),通常采用聯(lián)邦學(xué)習(xí)的方法來進(jìn)行微調(diào),也即聯(lián)邦微調(diào)。聯(lián)邦微調(diào)的基本流程是由服務(wù)器將初始模型分發(fā)到各個(gè)客戶端,由每個(gè)客戶端使用本地的訓(xùn)練數(shù)據(jù)集獨(dú)立地對(duì)初始模型進(jìn)行訓(xùn)練,訓(xùn)練后更新的模型參數(shù)傳回服務(wù)器,由服務(wù)器根據(jù)各個(gè)客戶端更新的模型參數(shù)完成模型聚合,之后再將更新后的模型重新分發(fā)到各個(gè)客戶端,如此循環(huán)而不斷優(yōu)化模型參數(shù)。由于上述模型微調(diào)過程的訓(xùn)練數(shù)據(jù)集只保存在客戶端的本地,無需令訓(xùn)練數(shù)據(jù)集在客戶端與服務(wù)器之間傳輸,因此能夠保護(hù)客戶端數(shù)據(jù)的隱私。然而,聯(lián)邦微調(diào)方法中傳輸?shù)哪P蛥?shù)也可能導(dǎo)致敏感信息的泄露,部分攻擊者可以從傳輸?shù)哪P蛥?shù)中推斷出關(guān)于訓(xùn)練數(shù)據(jù)集的敏感信息,可見現(xiàn)有的聯(lián)邦微調(diào)方法仍然存在一定的數(shù)據(jù)安全風(fēng)險(xiǎn)。
技術(shù)實(shí)現(xiàn)思路
1、有鑒于此,本申請(qǐng)實(shí)施例提供了一種機(jī)器學(xué)習(xí)模型微調(diào)方法、系統(tǒng)、服務(wù)器和客戶端,能夠在模型微調(diào)的過程中減少敏感信息的泄露,從而降低數(shù)據(jù)安全風(fēng)險(xiǎn)。
2、本申請(qǐng)實(shí)施例的第一方面提供了一種應(yīng)用于服務(wù)器的機(jī)器學(xué)習(xí)模型微調(diào)方法,包括:
3、對(duì)機(jī)器學(xué)習(xí)模型的所有網(wǎng)絡(luò)層進(jìn)行壓縮處理,得到壓縮后的目標(biāo)網(wǎng)絡(luò)層;
4、將目標(biāo)網(wǎng)絡(luò)層發(fā)送至客戶端,以指示客戶端基于本地的訓(xùn)練數(shù)據(jù)集對(duì)目標(biāo)網(wǎng)絡(luò)層的模型參數(shù)進(jìn)行優(yōu)化更新,并將優(yōu)化更新后的模型
5、根據(jù)接收到的優(yōu)化更新后的模型參數(shù),對(duì)機(jī)器學(xué)習(xí)模型進(jìn)行微調(diào)。
6、本申請(qǐng)實(shí)施例對(duì)現(xiàn)有的聯(lián)邦微調(diào)方法進(jìn)行了改進(jìn),首先由服務(wù)器對(duì)機(jī)器學(xué)習(xí)模型的所有網(wǎng)絡(luò)層進(jìn)行壓縮處理,得到壓縮后的目標(biāo)網(wǎng)絡(luò)層,并將目標(biāo)網(wǎng)絡(luò)層發(fā)送至客戶端;然后,客戶端基于本地的訓(xùn)練數(shù)據(jù)集對(duì)目標(biāo)網(wǎng)絡(luò)層的模型參數(shù)進(jìn)行優(yōu)化更新,并將優(yōu)化更新后的模型參數(shù)發(fā)送回服務(wù)器;最后,服務(wù)器根據(jù)接收到的優(yōu)化更新后的模型參數(shù),對(duì)機(jī)器學(xué)習(xí)模型進(jìn)行微調(diào)。在上述過程中,由于服務(wù)器與客戶端之間傳輸?shù)闹皇菣C(jī)器學(xué)習(xí)模型的部分網(wǎng)絡(luò)層的模型參數(shù),而不是所有網(wǎng)絡(luò)層的模型參數(shù),因此傳輸?shù)哪P蛥?shù)的數(shù)量會(huì)下降,這樣能夠在一定程度上減少敏感信息的泄露,從而降低數(shù)據(jù)安全風(fēng)險(xiǎn)。
7、在本申請(qǐng)實(shí)施例的一種實(shí)現(xiàn)方式中,對(duì)機(jī)器學(xué)習(xí)模型的所有網(wǎng)絡(luò)層進(jìn)行壓縮處理,得到壓縮后的目標(biāo)網(wǎng)絡(luò)層,包括:
8、根據(jù)所有網(wǎng)絡(luò)層中每個(gè)網(wǎng)絡(luò)層的輸出結(jié)果的相似度,基于聚類方法將所有網(wǎng)絡(luò)層分別劃分至各個(gè)網(wǎng)絡(luò)層簇;
9、對(duì)各個(gè)網(wǎng)絡(luò)層簇進(jìn)行壓縮,并將壓縮后的各個(gè)網(wǎng)絡(luò)層簇確定為目標(biāo)網(wǎng)絡(luò)層。
10、在本申請(qǐng)實(shí)施例的一種實(shí)現(xiàn)方式中,對(duì)各個(gè)網(wǎng)絡(luò)層簇進(jìn)行壓縮,包括:
11、獲取客戶端的計(jì)算資源參數(shù);
12、針對(duì)每個(gè)網(wǎng)絡(luò)層簇,根據(jù)計(jì)算資源參數(shù)以及該網(wǎng)絡(luò)層簇中包含的各個(gè)網(wǎng)絡(luò)層的輸出結(jié)果的相似度,對(duì)該網(wǎng)絡(luò)層簇中包含的各個(gè)網(wǎng)絡(luò)層進(jìn)行壓縮,得到壓縮后的該網(wǎng)絡(luò)層簇。
13、在本申請(qǐng)實(shí)施例的一種實(shí)現(xiàn)方式中,客戶端的數(shù)量為多個(gè),計(jì)算資源參數(shù)包括最大可保留網(wǎng)絡(luò)層數(shù)量;針對(duì)每個(gè)網(wǎng)絡(luò)層簇,根據(jù)計(jì)算資源參數(shù)以及該網(wǎng)絡(luò)層簇中包含的各個(gè)網(wǎng)絡(luò)層的輸出結(jié)果的相似度,對(duì)該網(wǎng)絡(luò)層簇中包含的各個(gè)網(wǎng)絡(luò)層進(jìn)行壓縮,包括:
14、根據(jù)定義的比例誤差和層誤差,構(gòu)建目標(biāo)函數(shù);其中,比例誤差用于表示多個(gè)客戶端在各個(gè)網(wǎng)絡(luò)層簇中實(shí)際保留的網(wǎng)絡(luò)層比例與預(yù)期保留的網(wǎng)絡(luò)層比例之間的偏差,層誤差用于約束每個(gè)客戶端壓縮后的各個(gè)網(wǎng)絡(luò)層簇中保留的網(wǎng)絡(luò)層的總數(shù)量趨近但不超過對(duì)應(yīng)客戶端的最大可保留網(wǎng)絡(luò)層數(shù)量;
15、以各個(gè)網(wǎng)絡(luò)層簇中丟棄的網(wǎng)絡(luò)層作為控制參數(shù),采用模擬退火算法對(duì)目標(biāo)函數(shù)進(jìn)行迭代優(yōu)化,直至最小化目標(biāo)函數(shù)時(shí)獲得控制參數(shù)的最優(yōu)解;
16、按照最優(yōu)解丟棄各個(gè)網(wǎng)絡(luò)層簇中包含的部分網(wǎng)絡(luò)層。
17、在本申請(qǐng)實(shí)施例的一種實(shí)現(xiàn)方式中,根據(jù)接收到的優(yōu)化更新后的模型參數(shù),對(duì)機(jī)器學(xué)習(xí)模型進(jìn)行微調(diào),包括:
18、保持機(jī)器學(xué)習(xí)模型中除目標(biāo)網(wǎng)絡(luò)層之外的其它網(wǎng)絡(luò)層的模型參數(shù)不變,且將機(jī)器學(xué)習(xí)模型中目標(biāo)網(wǎng)絡(luò)層的原模型參數(shù)調(diào)整為優(yōu)化更新后的模型參數(shù)。
19、本申請(qǐng)實(shí)施例的第二方面提供了一種應(yīng)用于客戶端的機(jī)器學(xué)習(xí)模型微調(diào)方法,包括:
20、接收由服務(wù)器發(fā)送的目標(biāo)網(wǎng)絡(luò)層;其中,目標(biāo)網(wǎng)絡(luò)層為服務(wù)器對(duì)機(jī)器學(xué)習(xí)模型的所有網(wǎng)絡(luò)層進(jìn)行壓縮處理后得到的部分網(wǎng)絡(luò)層;
21、基于本地的訓(xùn)練數(shù)據(jù)集對(duì)目標(biāo)網(wǎng)絡(luò)層的模型參數(shù)進(jìn)行優(yōu)化更新;
22、將優(yōu)化更新后的模型參數(shù)發(fā)送回服務(wù)器,以指示服務(wù)器根據(jù)優(yōu)化更新后的模型參數(shù),對(duì)機(jī)器學(xué)習(xí)模型進(jìn)行微調(diào)。
23、在本申請(qǐng)實(shí)施例的一種實(shí)現(xiàn)方式中,目標(biāo)網(wǎng)絡(luò)層為壓縮后的各個(gè)網(wǎng)絡(luò)層簇;基于本地的訓(xùn)練數(shù)據(jù)集對(duì)目標(biāo)網(wǎng)絡(luò)層的模型參數(shù)進(jìn)行優(yōu)化更新,包括:
24、針對(duì)每個(gè)網(wǎng)絡(luò)層簇,若該網(wǎng)絡(luò)層簇在壓縮過程中未丟棄網(wǎng)絡(luò)層,則基于訓(xùn)練數(shù)據(jù)集對(duì)該網(wǎng)絡(luò)層簇包含的各個(gè)網(wǎng)絡(luò)層的模型參數(shù)進(jìn)行優(yōu)化更新。
25、本申請(qǐng)實(shí)施例的第三方面提供了一種服務(wù)器,包括存儲(chǔ)器、處理器以及存儲(chǔ)在所述存儲(chǔ)器中并可在所述處理器上運(yùn)行的計(jì)算機(jī)程序,所述處理器執(zhí)行所述計(jì)算機(jī)程序時(shí)實(shí)現(xiàn)如本申請(qǐng)實(shí)施例的第一方面提供的機(jī)器學(xué)習(xí)模型微調(diào)方法。
26、本申請(qǐng)實(shí)施例的第四方面提供了一種客戶端,包括存儲(chǔ)器、處理器以及存儲(chǔ)在所述存儲(chǔ)器中并可在所述處理器上運(yùn)行的計(jì)算機(jī)程序,所述處理器執(zhí)行所述計(jì)算機(jī)程序時(shí)實(shí)現(xiàn)如本申請(qǐng)實(shí)施例的第二方面提供的機(jī)器學(xué)習(xí)模型微調(diào)方法。
27、本申請(qǐng)實(shí)施例的第五方面提供了一種機(jī)器學(xué)習(xí)模型微調(diào)系統(tǒng),該系統(tǒng)包括如本申請(qǐng)實(shí)施例的第三方面提供的服務(wù)器以及至少一個(gè)如本申請(qǐng)實(shí)施例的第四方面提供的客戶端。
28、本申請(qǐng)實(shí)施例的第六方面提供了一種計(jì)算機(jī)可讀存儲(chǔ)介質(zhì),所述計(jì)算機(jī)可讀存儲(chǔ)介質(zhì)存儲(chǔ)有計(jì)算機(jī)程序,所述計(jì)算機(jī)程序被處理器執(zhí)行時(shí)實(shí)現(xiàn)如本申請(qǐng)實(shí)施例的第一方面提供的機(jī)器學(xué)習(xí)模型微調(diào)方法,或者實(shí)現(xiàn)如本申請(qǐng)實(shí)施例的第二方面提供的機(jī)器學(xué)習(xí)模型微調(diào)方法。
29、可以理解的是,上述第二方面至第六方面的有益效果可以參見上述第一方面中的相關(guān)描述,在此不再贅述。
本文檔來自技高網(wǎng)...【技術(shù)保護(hù)點(diǎn)】
1.一種機(jī)器學(xué)習(xí)模型微調(diào)方法,應(yīng)用于服務(wù)器,其特征在于,所述方法包括:
2.如權(quán)利要求1所述的方法,其特征在于,所述對(duì)機(jī)器學(xué)習(xí)模型的所有網(wǎng)絡(luò)層進(jìn)行壓縮處理,得到壓縮后的目標(biāo)網(wǎng)絡(luò)層,包括:
3.如權(quán)利要求2所述的方法,其特征在于,所述對(duì)各個(gè)所述網(wǎng)絡(luò)層簇進(jìn)行壓縮,包括:
4.如權(quán)利要求3所述的方法,其特征在于,所述客戶端的數(shù)量為多個(gè),所述計(jì)算資源參數(shù)包括最大可保留網(wǎng)絡(luò)層數(shù)量;所述針對(duì)每個(gè)所述網(wǎng)絡(luò)層簇,根據(jù)所述計(jì)算資源參數(shù)以及該網(wǎng)絡(luò)層簇中包含的各個(gè)網(wǎng)絡(luò)層的輸出結(jié)果的相似度,對(duì)該網(wǎng)絡(luò)層簇中包含的各個(gè)網(wǎng)絡(luò)層進(jìn)行壓縮,包括:
5.如權(quán)利要求1至4任一項(xiàng)所述的方法,其特征在于,所述根據(jù)接收到的優(yōu)化更新后的所述模型參數(shù),對(duì)所述機(jī)器學(xué)習(xí)模型進(jìn)行微調(diào),包括:
6.一種機(jī)器學(xué)習(xí)模型微調(diào)方法,應(yīng)用于客戶端,其特征在于,所述方法包括:
7.如權(quán)利要求6所述的方法,其特征在于,所述目標(biāo)網(wǎng)絡(luò)層為壓縮后的各個(gè)網(wǎng)絡(luò)層簇;所述基于本地的訓(xùn)練數(shù)據(jù)集對(duì)所述目標(biāo)網(wǎng)絡(luò)層的模型參數(shù)進(jìn)行優(yōu)化更新,包括:
8.一種服務(wù)器,包括存儲(chǔ)器、處理器以及存
9.一種客戶端,包括存儲(chǔ)器、處理器以及存儲(chǔ)在所述存儲(chǔ)器中并可在所述處理器上運(yùn)行的計(jì)算機(jī)程序,其特征在于,所述處理器執(zhí)行所述計(jì)算機(jī)程序時(shí)實(shí)現(xiàn)如權(quán)利要求6或7所述的機(jī)器學(xué)習(xí)模型微調(diào)方法。
10.一種機(jī)器學(xué)習(xí)模型微調(diào)系統(tǒng),其特征在于,包括如權(quán)利要求8所述的服務(wù)器以及至少一個(gè)如權(quán)利要求9所述的客戶端。
...【技術(shù)特征摘要】
1.一種機(jī)器學(xué)習(xí)模型微調(diào)方法,應(yīng)用于服務(wù)器,其特征在于,所述方法包括:
2.如權(quán)利要求1所述的方法,其特征在于,所述對(duì)機(jī)器學(xué)習(xí)模型的所有網(wǎng)絡(luò)層進(jìn)行壓縮處理,得到壓縮后的目標(biāo)網(wǎng)絡(luò)層,包括:
3.如權(quán)利要求2所述的方法,其特征在于,所述對(duì)各個(gè)所述網(wǎng)絡(luò)層簇進(jìn)行壓縮,包括:
4.如權(quán)利要求3所述的方法,其特征在于,所述客戶端的數(shù)量為多個(gè),所述計(jì)算資源參數(shù)包括最大可保留網(wǎng)絡(luò)層數(shù)量;所述針對(duì)每個(gè)所述網(wǎng)絡(luò)層簇,根據(jù)所述計(jì)算資源參數(shù)以及該網(wǎng)絡(luò)層簇中包含的各個(gè)網(wǎng)絡(luò)層的輸出結(jié)果的相似度,對(duì)該網(wǎng)絡(luò)層簇中包含的各個(gè)網(wǎng)絡(luò)層進(jìn)行壓縮,包括:
5.如權(quán)利要求1至4任一項(xiàng)所述的方法,其特征在于,所述根據(jù)接收到的優(yōu)化更新后的所述模型參數(shù),對(duì)所述機(jī)器學(xué)習(xí)模型進(jìn)行微調(diào),包括:
6.一種機(jī)器學(xué)習(xí)模型微調(diào)...
【專利技術(shù)屬性】
技術(shù)研發(fā)人員:謝鐘樂,陳珂,壽黎但,陳剛,唐川淇,
申請(qǐng)(專利權(quán))人:杭州高新區(qū)濱江區(qū)塊鏈與數(shù)據(jù)安全研究院,
類型:發(fā)明
國別省市:
還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。