System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術實現步驟摘要】
本專利技術涉及自然語言處理領域,應用于大語言模型的微調訓練過程中,具體涉及面向法律領域多任務學習的大語言模型微調訓練方法及系統。
技術介紹
1、近年來,大語言模型(llms)在自然語言理解和生成方面展現了顯著的能力,引起了眾多行業的廣泛關注。這些模型基于深度學習架構,通過處理海量文本數據來獲取語言知識,并能執行各種復雜的自然語言任務。隨著基礎大模型(foundation?llms)的成熟,研究者們開始探索如何通過二次訓練或微調,使這些模型適應特定垂直領域的應用需求,以實現更精準、更具針對性的服務。法律領域正是其中一個重要且充滿潛力的應用場景之一。
2、法律行業具有其獨特的復雜性和專業性,這使得開發能夠理解并有效處理法律信息的人工智能系統變得尤為重要。目前,大語言模型已經被應用于在線法律助手,為用戶提供即時法律咨詢服務;同時,在律所內部,它們也被用來輔助律師進行案件研究、合同審查等工作,極大地提高了工作效率和服務質量。然而,盡管取得了初步的成功,但在實際部署過程中仍然面臨著一系列挑戰。
3、首先,由于法律相關的下游任務種類繁多,從簡單的問答到復雜的案例分析等,不同任務間所需輸入輸出形式差異巨大,這給采用單一通用模型進行統一微調的方式帶來了極大難度。為了滿足多樣化的需求,往往需要針對每個具體應用場景單獨設計微調策略,這不僅消耗了大量專業知識資源,也增加了人力和計算成本。此外,考慮到法律文件通常包含敏感信息,確保數據隱私安全的同時完成高質量的數據標注工作同樣是一大難題。
4、其次,現有的一些多任務學
5、由此可見,雖然基于大語言模型的解決方案為法律領域帶來了前所未有的機遇,但要充分發揮其潛力仍需克服諸多障礙;對此,本領域技術人員已將大語言模型在特定領域下的多任務學習部分作為新的研究要點。
技術實現思路
1、基于
技術介紹
中的現狀,本專利技術的目的在于解決現有大語言模型在具體法律相關應用場景中面臨的待處理任務多樣和訓練調試成本過高的問題,因此提出了面向法律領域多任務學習的大語言模型微調訓練方法及系統。本專利技術通過在大語言模型高效微調方法lora的基礎上設計了可學習、多模塊集成的多任務高效參數微調框架,實現了多任務法律業務場景中的高效參數微調,并有效降低了模型的場景適配成本以及二次開發工作量。
2、本專利技術采用了以下技術方案來實現目的:
3、一種面向法律領域多任務學習的大語言模型微調訓練方法,包括:獲取基于大語言模型的基礎架構,對所述基礎架構配置多個lora模塊,其中每個lora模塊均用于適配一個或多個不同的下游法律任務;在每個lora模塊中集成任務相關的學習模塊,通過所述學習模塊,使每個lora模塊依據對應的下游法律任務的需求進行調整;采用神經網絡門控機制,輸入與待執行的下游法律任務相對應的任務嵌入矩陣,動態確定每個lora模塊對應于下游法律任務的貢獻權重;依據所述貢獻權重,自適應地為每個下游法律任務生成匹配的更新參數,使大語言模型依據不同的下游法律任務場景的具體需求進行微調;通過所述更新參數對大語言模型進行迭代優化,直至達到預設的模型性能指標。
4、進一步的,所述方法具體包括如下流程步驟:
5、s1、獲取基座模型并進行預訓練后,得到預訓練法律大模型;
6、s2、獲取多類法律業務數據并進行數據處理后,生成多任務微調數據;
7、s3、為預訓練法律大模型配置多個lora模塊,在多任務微調數據的基礎上對預訓練法律大模型進行多任務微調訓練,訓練完成后得到多任務法律大模型;
8、s4、將多任務法律大模型進行應用部署,多任務法律大模型即支持多類法律業務數據對應的多個下游法律任務。
9、進一步的,步驟s3中,在配置多個lora模塊的同時,采用任務驅動的神經網絡門控機制,針對多任務微調數據中不同的具體訓練數據,令預訓練法律大模型自適應地適配不同的下游法律任務。
10、本專利技術同時提供一種面向法律領域多任務學習的大語言模型微調訓練系統,所述系統包括:
11、基于大語言模型的基礎架構獲取模塊,用于提供所述基礎架構;
12、多個lora模塊配置單元,每個lora模塊均適配于一個或多個不同的下游法律任務,并集成有任務相關的學習模塊,使得每個lora模塊能夠依據對應的下游法律任務需求進行調整;
13、神經網絡門控機制單元,用于接收與待執行的下游法律任務相對應的任務嵌入矩陣,并動態確定每個lora模塊對于下游法律任務的貢獻權重;
14、參數更新生成器,用于依據所述神經網絡門控機制單元確定的貢獻權重,自適應地為每個下游法律任務生成匹配的更新參數,以使大語言模型依據不同下游法律任務場景的具體需求進行微調;
15、模型優化迭代控制器,用于依據所述參數更新生成器產生的更新參數對大語言模型進行迭代優化,直至滿足預設的模型性能指標。
16、綜上所述,由于采用了本技術方案,本專利技術的有益效果如下:
17、本專利技術通過采用多任務高效參數微調框架,在保持訓練推理效率與lora相當的情況下,僅需調整大語言模型總參數量不到1%的部分,即可實現對下游法律業務場景的有效適配。這一方式有效降低了針對具體應用場景進行模型定制化的成本和時間投入。
18、相較于傳統的lora高效微調方式,本專利技術提出的方法支持集中式的多任務學習機制,使得單一模型能夠同時適應多個不同的下游任務需求,無需為每一個特定任務單獨執行lora微調過程。這種設計有效增強了模型對于多樣化法律服務場景的支持能力,減少了重復開發的工作量。
19、通過引入任務驅動的門控神經網絡學習機制,本專利技術不僅避免了傳統微調過程中可能出現的學習效率下降問題,而且確保了在完成訓練后進行實際應用時不需要額外增加前向計算負擔。這意味著在保證性能的同時進一步提升了計算資源的有效利用率。
本文檔來自技高網...【技術保護點】
1.一種面向法律領域多任務學習的大語言模型微調訓練方法,其特征在于:獲取基于大語言模型的基礎架構,對所述基礎架構配置多個LoRA模塊,其中每個LoRA模塊均用于適配一個或多個不同的下游法律任務;在每個LoRA模塊中集成任務相關的學習模塊,通過所述學習模塊,使每個LoRA模塊依據對應的下游法律任務的需求進行調整;采用神經網絡門控機制,輸入與待執行的下游法律任務相對應的任務嵌入矩陣,動態確定每個LoRA模塊對應于下游法律任務的貢獻權重;依據所述貢獻權重,自適應地為每個下游法律任務生成匹配的更新參數,使大語言模型依據不同的下游法律任務場景的具體需求進行微調;通過所述更新參數對大語言模型進行迭代優化,直至達到預設的模型性能指標。
2.根據權利要求1所述的面向法律領域多任務學習的大語言模型微調訓練方法,其特征在于,所述方法具體包括如下流程步驟:
3.根據權利要求2所述的面向法律領域多任務學習的大語言模型微調訓練方法,其特征在于:步驟S1中,預先使用通用法律語料對基座模型進行訓練,從而得到預訓練法律大模型。
4.根據權利要求2所述的面向法律領域多任務學習的
5.根據權利要求2所述的面向法律領域多任務學習的大語言模型微調訓練方法,其特征在于:步驟S3中,在配置多個LoRA模塊的同時,采用任務驅動的神經網絡門控機制,針對多任務微調數據中不同的具體訓練數據,令預訓練法律大模型自適應地適配不同的下游法律任務。
6.根據權利要求5所述的面向法律領域多任務學習的大語言模型微調訓練方法,其特征在于:配置的多個LoRA模塊之間通過反向傳播方式進行協同參數學習與交互,從而保持各個LoRA模塊內部的參數學習與更新過程。
7.根據權利要求5所述的面向法律領域多任務學習的大語言模型微調訓練方法,其特征在于:進行多任務微調訓練時,采用標準梯度下降算法,其中前向計算過程的計算式如下:
8.根據權利要求7所述的面向法律領域多任務學習的大語言模型微調訓練方法,其特征在于:多任務微調訓練過程中,不同的具體訓練數據基于預設配比進行交替訓練,所對應的不同下游法律任務使用不同損失函數;訓練過程直至損失函數收斂或達到最大迭代輪次后停止,將此時的預訓練法律大模型保存后,即作為多任務法律大模型并進行后續應用部署。
9.根據權利要求2所述的面向法律領域多任務學習的大語言模型微調訓練方法,其特征在于:步驟S4中,依據實際業務應用的需求,為多任務法律大模型增加對應的組件支持;增加的組件類型包括數據庫與RAG。
10.一種面向法律領域多任務學習的大語言模型微調訓練系統,其特征在于,所述系統包括:
...【技術特征摘要】
1.一種面向法律領域多任務學習的大語言模型微調訓練方法,其特征在于:獲取基于大語言模型的基礎架構,對所述基礎架構配置多個lora模塊,其中每個lora模塊均用于適配一個或多個不同的下游法律任務;在每個lora模塊中集成任務相關的學習模塊,通過所述學習模塊,使每個lora模塊依據對應的下游法律任務的需求進行調整;采用神經網絡門控機制,輸入與待執行的下游法律任務相對應的任務嵌入矩陣,動態確定每個lora模塊對應于下游法律任務的貢獻權重;依據所述貢獻權重,自適應地為每個下游法律任務生成匹配的更新參數,使大語言模型依據不同的下游法律任務場景的具體需求進行微調;通過所述更新參數對大語言模型進行迭代優化,直至達到預設的模型性能指標。
2.根據權利要求1所述的面向法律領域多任務學習的大語言模型微調訓練方法,其特征在于,所述方法具體包括如下流程步驟:
3.根據權利要求2所述的面向法律領域多任務學習的大語言模型微調訓練方法,其特征在于:步驟s1中,預先使用通用法律語料對基座模型進行訓練,從而得到預訓練法律大模型。
4.根據權利要求2所述的面向法律領域多任務學習的大語言模型微調訓練方法,其特征在于:步驟s2中,數據處理包括質量過濾、數據去重、數據清洗、分詞和標注校對;經過數據處理的多類法律業務數據對應于多個下游法律任務,包括命名實體識別、屬性提取、法律實體發現、法律文本分類、意圖查詢、法律報告生成和法律問答對話。
5....
【專利技術屬性】
技術研發人員:汪洋旭,吳懷谷,張楠欣,溫恒一,王學凱,劉鑌瑩,甘彤,
申請(專利權)人:天府絳溪實驗室,
類型:發明
國別省市:
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。