本公開涉及一種信息生成方法、裝置、電子設備及可讀存儲介質,該方法包括:獲取輸入的問題信息,利用生成模型生成針對問題信息的回復信息;生成模型通過以下步驟訓練得到:獲取樣本數據,每一條樣本數據包括一個問題信息和問題信息對應的預設回復信息,每一條樣本數據包括原始樣本和根據原始樣本構建的正例樣本和負例樣本,提取樣本數據的表示向量,通過表示向量及預設的損失函數訓練初始生成模型得到生成模型。到生成模型。到生成模型。
【技術實現步驟摘要】
信息生成方法、裝置、電子設備及可讀存儲介質
[0001]本公開涉及計算機
,尤其涉及一種信息生成方法、裝置、電子設備及可讀存儲介質。
技術介紹
[0002]相關技術中,人機對話領域中,針對用戶的提問,閑聊對話機器人通常使用檢索模型或者生成模型來給出合適的回復。然而,對于檢索模型而言,需要語料庫足夠充足才能針對用戶的提問給出合適的回復,而且檢索模型的回復只能是語料庫里面的,泛化能力差;對于生成模型而言,其模型尺寸通常比較大,導致回復提問的速度難以滿足高并發場景下的延遲要求,另外,由于生成的回復趣味性不夠,導致用戶體驗較差。
技術實現思路
[0003]為克服相關技術中存在的問題,本公開提供一種信息生成方法、裝置、電子設備及可讀存儲介質。
[0004]根據本公開實施例的第一方面,提供一種信息生成方法,包括:獲取輸入的問題信息;利用生成模型生成針對所述問題信息的回復信息;所述生成模型通過以下步驟訓練得到:獲取樣本數據;每一條所述樣本數據包括一個所述問題信息和所述問題信息對應的預設回復信息;每一條所述樣本數據包括原始樣本和根據所述原始樣本構建的正例樣本和負例樣本;提取所述樣本數據的表示向量;通過所述表示向量及預設的損失函數訓練初始生成模型得到所述生成模型。
[0005]可選的,所述提取所述樣本數據的表示向量的步驟包括:將所述樣本數據輸入至所述初始生成模型,通過所述初始生成模型在每一個所述樣本數據的預設回復信息后添加占位符;對添加所述占位符后的樣本數據中每個字符進行語義學習,得到所述樣本數據的表示向量。
[0006]可選的,所述損失函數通過以下步驟得到:根據所述樣本數據中的所述原始樣本與對應的所述正例樣本的相似度,以及所述原始樣本與對應的所述負例樣本的相似度,確定所述損失函數。
[0007]可選的,所述損失函數的計算公式包括:
[0008][0009]其中,L
cont
(θ)為所述損失函數,N為對所述初始生成模型進行一次反向傳播參數更新所需的樣本數據的數量,為所述原始樣本,為根據所述原始樣本構建的正例樣本,sim()為相似度函數,τ為常數,為根據所述原始樣本構建的正例樣本和負例樣本,為所述原始樣本與構建的樣本的運算和,S為構造的樣
本集。
[0010]可選的,所述利用生成模型生成針對所述問題信息的回復信息的步驟之前還包括:從語料庫中檢索與所述問題信息相匹配的候選回復信息;獲取所述候選回復信息的得分;在所述候選回復信息中存在至少一個得分大于預設閾值的候選回復信息的情況下,基于得分大于所述預設閾值的候選回復信息來確定所述回復信息;在所述候選回復信息中不存在得分大于所述預設閾值的候選回復信息的情況下,利用所述生成模型生成針對所述問題信息的回復信息。
[0011]可選的,所述從語料庫中檢索與所述問題信息相匹配的候選回復信息,包括:利用檢索模型,確定所述問題信息與所述語料庫中的預設提問信息之間的相似度;將相似度滿足預設要求的預設提問信息所對應的預設回復信息作為針對所述問題信息的候選回復信息。
[0012]可選的,所述基于得分大于所述預設閾值的候選回復信息來確定所述回復信息包括:獲取得分大于所述預設閾值的候選回復信息的回復長度以及用戶歷史好評率;根據所述回復長度以及所述用戶歷史好評率從所述得分大于所述預設閾值的候選回復信息中確定一個候選回復信息作為所述回復信息。
[0013]根據本公開實施例的第二方面,提供一種信息生成裝置,包括:獲取模塊,被配置為獲取輸入的問題信息;處理模塊,被配置為利用生成模型生成針對所述問題信息的回復信息;所述生成模型通過以下步驟訓練得到:獲取樣本數據;每一條所述樣本數據包括一個所述問題信息和所述問題信息對應的預設回復信息;每一條所述樣本數據包括原始樣本和根據所述原始樣本構建的正例樣本和負例樣本;提取所述樣本數據的表示向量;通過所述表示向量及預設的損失函數訓練初始生成模型得到所述生成模型。
[0014]可選的,處理模塊還被配置為將所述樣本數據輸入至所述初始生成模型,通過所述初始生成模型在每一個所述樣本數據的預設回復信息后添加占位符;對添加所述占位符后的樣本數據中每個字符進行語義學習,得到所述樣本數據的表示向量。
[0015]可選的,處理模塊還被配置為根據所述樣本數據中的所述原始樣本與對應的所述正例樣本的相似度,以及所述原始樣本與對應的所述負例樣本的相似度,確定所述損失函數。
[0016]可選的,所述損失函數的計算公式包括:
[0017][0018]其中,L
cont
(θ)為所述損失函數,N為對所述初始生成模型進行一次反向傳播參數更新所需的樣本數據的數量,為所述原始樣本,為根據所述原始樣本構建的正例樣本,sim()為相似度函數,τ為常數,為根據所述原始樣本構建的正例樣本和負例樣本,為所述原始樣本與構建的樣本的運算和,S為構造的樣本集。
[0019]可選的,獲取模塊被配置為從語料庫中檢索與所述問題信息相匹配的候選回復信息;獲取所述候選回復信息的得分;
[0020]處理模塊被配置為在所述候選回復信息中存在至少一個得分大于預設閾值的候選回復信息的情況下,基于得分大于所述預設閾值的候選回復信息來確定所述回復信息;在所述候選回復信息中不存在得分大于所述預設閾值的候選回復信息的情況下,利用所述生成模型生成針對所述問題信息的回復信息。
[0021]可選的,處理模塊還被配置為利用檢索模型,確定所述問題信息與所述語料庫中的預設提問信息之間的相似度;將相似度滿足預設要求的預設提問信息所對應的預設回復信息作為針對所述問題信息的候選回復信息。
[0022]可選的,處理模塊還被配置為獲取得分大于所述預設閾值的候選回復信息的回復長度以及用戶歷史好評率;根據所述回復長度以及所述用戶歷史好評率從所述得分大于所述預設閾值的候選回復信息中確定一個候選回復信息作為所述回復信息。根據本公開實施例的第三方面,提供一種電子設備,包括:處理器;用于存儲處理器可執行指令的存儲器;其中,所述處理器被配置為執行所述可執行指令實現前述的信息生成方法的步驟。
[0023]根據本公開實施例的第四方面,提供一種計算機可讀存儲介質,其上存儲有計算機程序指令,該計算機程序指令被處理器執行時實現本公開第一方面所提供的信息生成方法的步驟。
[0024]本公開的實施例提供的技術方案可以包括以下有益效果:獲取輸入的問題信息,利用生成模型生成針對問題信息的回復信息;生成模型通過以下步驟訓練得到:獲取樣本數據,每一條樣本數據包括一個問題信息和問題信息對應的預設回復信息,每一條樣本數據包括原始樣本和根據原始樣本構建的正例樣本和負例樣本,提取樣本數據的表示向量,通過表示向量及預設的損失函數訓練初始生成模型得到生成模型。利用生成模型生成針對用戶提問相關的問題信息的回復信息,而生成模型是根據原始樣本和構建的正例樣本和負例樣本訓練得到的,正例樣本覆蓋范圍大、且具備趣味性,因此能夠得到針對用戶提問的合適的回復信息,提高了回復本文檔來自技高網...
【技術保護點】
【技術特征摘要】
1.一種信息生成方法,其特征在于,包括:獲取輸入的問題信息;利用生成模型生成針對所述問題信息的回復信息;所述生成模型通過以下步驟訓練得到:獲取樣本數據;每一條所述樣本數據包括一個所述問題信息和所述問題信息對應的預設回復信息;每一條所述樣本數據包括原始樣本和根據所述原始樣本構建的正例樣本和負例樣本;提取所述樣本數據的表示向量;通過所述表示向量及預設的損失函數訓練初始生成模型得到所述生成模型。2.根據權利要求1所述方法,其特征在于,所述提取所述樣本數據的表示向量的步驟包括:將所述樣本數據輸入至所述初始生成模型,通過所述初始生成模型在每一個所述樣本數據的預設回復信息后添加占位符;對添加所述占位符后的樣本數據中每個字符進行語義學習,得到所述樣本數據的表示向量。3.根據權利要求1或2所述的方法,其特征在于,所述損失函數通過以下步驟得到:根據所述樣本數據中的所述原始樣本與對應的所述正例樣本的相似度,以及所述原始樣本與對應的所述負例樣本的相似度,確定所述損失函數。4.根據權利要求3所述方法,其特征在于,所述損失函數的計算公式包括:其中,L
cont
(θ)為所述損失函數,N為對所述初始生成模型進行一次反向傳播參數更新所需的樣本數據的數量,為所述原始樣本,為根據所述原始樣本構建的正例樣本,sim()為相似度函數,τ為常數,為根據所述原始樣本構建的正例樣本和負例樣本,為所述原始樣本與構建的樣本的運算和,S為構造的樣本集。5.根據權利要求1所述方法,其特征在于,所述利用生成模型生成針對所述問題信息的回復信息的步驟之前還包括:從語料庫中檢索與所述問題信息相匹配的候選回復信息;獲取所述候選回復信息的得分;在所述候選回復信息中存在至少一個得分大于預設閾值的候選回復信息的情況下,基于得分大于所述預設閾...
【專利技術屬性】
技術研發人員:夏小強,
申請(專利權)人:北京小米松果電子有限公司,
類型:發明
國別省市:
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。