System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術實現步驟摘要】
本專利技術涉及物品推薦,尤其涉及一種推薦系統預測模型的訓練方法。
技術介紹
1、推薦系統(rs)旨在為用戶集合生成他們可能感興趣的物品或產品的有意義的推薦,近年來已經取得了許多重大進展。然而,在現實世界中直接使用這些先進的模型時,如果忽略了所收集數據中存在的大量偏差,就會導致評級預測模型的性能達不到最優。其中,數據缺失問題尤為普遍,因為用戶可以自由選擇物品進行評分,而評分值較低的物品更有可能缺失,從而導致rs中收集到的數據總是非隨機缺失(mnar)。mnar評分對預測模型的無偏評估和學習提出了嚴峻的挑戰,因為觀察到的數據可能無法代表全體用戶-物品對。
2、為了解決這個問題,以前的研究通過定義預測不準確度來評估預測模型的性能,即預測誤差(如預測評分與潛在觀察評分之間的平方差的平均值)。為了通過觀測到的評分無偏估計預測誤差,以前的研究提出了三種典型的方法,包括:(1)基于誤差填補(eib)的方法,為每個缺失的評分計算估算誤差。(2)逆傾向得分法(ips),這種方法將每個觀察到的評分的預測誤差與觀察到該評分的概率進行反向加權。(3)雙重穩健(dr)方法,這種方法同時使用誤差估算模型和傾向模型來估計預測誤差,當估算誤差或學習到的傾向都準確時,估計結果是無偏的。
3、盡管這些方法被廣泛使用,但它們忽略了另一種形式的偏差,即觀察到的評分與用戶真實偏好之間的不一致性,也稱為噪聲結果或結果測量誤差(ome)。與選擇偏差類似,ome也來自數據收集過程中的系統偏差。例如,由于受到公眾輿論的影響,收集到的用戶反饋可能與真實的用
4、當交互數據同時具有mnar和ome時,即使是通過觀察到的評分,也很難獲得真實預測誤差,這就使得之前的去偏估計器在估計真實預測誤差和訓練評分預測模型時會出現嚴重偏差。
5、為了消除ome對預測模型性能的影響,以前的研究提出了在噪聲標簽下學習的無偏風險最小化方法。盡管ome在現實世界的推薦場景中非常普遍,但在rs中關注去噪的研究仍然有限。例如,以前的研究通過借鑒統計學文獻中的靈敏度分析,為推薦系統提出了一種魯棒因果推理技術,以克服噪聲混雜因素;或者通過注意到噪聲反饋在早期階段通常會有較大的損失值,提出了自適應去噪訓練,并提出了隱式反饋中的自引導去噪學習。然而,這些方法大多是啟發式的,在估計真實預測誤差時缺乏統計無偏性的理論保證。
技術實現思路
1、鑒于上述的分析,本專利技術實施例旨在提供一種基于推薦系統預測模型的訓練方法,用以解決收集到的數據同時具有mnar和ome時預測模型準確性低的問題。
2、一方面,本專利技術實施例提供了一種推薦系統預測模型的訓練方法,包括以下步驟:
3、獲取所述推薦系統的所有用戶數據、所有物品數據以及觀測到的用戶對物品的評分,基于所有用戶數據、所有物品數據以及觀測到的用戶對物品的評分提取用戶-物品對特征,構建訓練樣本集;
4、構建前饋神經網絡模型,基于訓練樣本集中觀測到評分的樣本訓練所述前饋神經網絡模型得到噪聲預測模型;
5、構建邏輯回歸模型,基于訓練樣本集訓練所述邏輯回歸模型得到傾向性模型;
6、構建去噪誤差插補模型和去噪預測模型,基于所述訓練樣本集、訓練好的噪聲預測模型和傾向性模型對所述去噪誤差插補模型和去噪預測模型進行聯合訓練,得到訓練好的去噪預測模型。
7、基于上述方法的進一步改進,基于所有用戶數據、所有物品數據以及觀測到的用戶對物品的評分提取用戶-物品對特征,包括:
8、任一用戶和任一物品構成用戶-物品對;構建評分矩陣,如觀察到用戶-物品對的評分,則評分矩陣中對應的元素為觀測到的用戶-物品對的評分,否則,評分矩陣中對應的元素為空;
9、采用矩陣分解對評分矩陣進行分解,得到用戶特征矩陣和物品特征矩陣;用戶特征和物品特征拼接得到用戶-物品對特征。
10、基于上述方法的進一步改進,采用以下公式計算所述前饋神經網絡模型的損失:
11、
12、其中,表示當前訓練批次的用戶-物品對,ru,i表示觀察到的第u個用戶對第i個物品的評分,表示前饋神經網絡模型預測的第u個用戶對第i個物品的評分為正向評分的概率。
13、基于上述方法的進一步改進,采用以下公式計算邏輯回歸模型的損失:
14、
15、其中,ou,i表示是否觀測到第u個用戶對第i個物品的評分,表示邏輯回歸模型預測的觀測到第u個用戶對第i個物品的評分的概率,表示當前訓練批次的用戶-物品對。
16、基于上述方法的進一步改進,基于所述訓練樣本集、訓練好的噪聲預測模型和傾向性模型對所述去噪誤差插補模型和去噪預測模型進行聯合訓練,包括:
17、s21、將去噪誤差插補模型的參數固定,基于傾向性模型和訓練樣本集訓練去噪預測模型;
18、s22、基于去噪預測模型和噪聲預測模型估計假陰性率和假陽性率;
19、s23、將去噪預測模型的參數固定,基于估計的假陰率和假陽率訓練去噪誤差插補模型;
20、s24、重復步驟s21到s23直至去噪預測模型收斂,結束訓練。
21、基于上述方法的進一步改進,采用以下公式計算去噪預測模型的損失:
22、
23、其中,表示當前訓練批次的用戶-物品對,表示當前訓練批次的用戶-物品對的數量,ru,i表示觀察到的第u個用戶對第i個物品的評分,ou,i表示是否觀測到第u個用戶對第i個物品的評分,表示傾向性模型預測的觀測到第u個用戶對第i個物品的評分的概率,xu,i表示第u個用戶和第i個物品構成的用戶-物品對的特征,fθ(xu,i)表示去噪預測模型預測的第u個用戶對第i個物品的評分,l(·,·)表示損失函數,ρ10表示假陽性率,ρ01表示假陰性率,表示去噪誤差插補模型的插補誤差。
24、基于上述方法的進一步改進,采用以下公式計算去噪誤差插補模型的損失:
25、
26、其中,表示去噪誤差插補模型的插補誤差,表示代理損失,
27、表示傾向性模型預測的觀測到第u個用戶對第i個物品的評分的概率,表示當前訓練批次的用戶-物品對,表示當前訓練批次的用戶-物品對的數量,ou,i表示是否觀測到第u個用戶對第i個物品的評分。
28、基于上述方法的進一步改進,采用以下公式計算代理損失:
29、
30、
31、
32、其中,ru,i表示觀察到的第u個用戶對第i個物品的評分,xu,i表示第u個用戶和第i個物品構成的用戶-物品對的特征,fθ(xu,i)表示去噪預測模型預測的第u個用戶對第i個物品的評分,l(·,·)表示損失函數,ρ10表示假陽性率,ρ01表示假陰本文檔來自技高網...
【技術保護點】
1.一種推薦系統預測模型的訓練方法,其特征在于,包括以下步驟:
2.根據權利要求1所述的推薦系統預測模型的訓練方法,其特征在于,基于所有用戶數據、所有物品數據以及觀測到的用戶對物品的評分提取用戶-物品對特征,包括:
3.根據權利要求1所述的推薦系統預測模型的訓練方法,其特征在于,采用以下公式計算所述前饋神經網絡模型的損失:
4.根據權利要求1所述的推薦系統預測模型的訓練方法,其特征在于,采用以下公式計算邏輯回歸模型的損失:
5.根據權利要求1所述的推薦系統預測模型的訓練方法,其特征在于,基于所述訓練樣本集、訓練好的噪聲預測模型和傾向性模型對所述去噪誤差插補模型和去噪預測模型進行聯合訓練,包括:
6.根據權利要求1所述的推薦系統預測模型的訓練方法,其特征在于,采用以下公式計算去噪預測模型的損失:
7.根據權利要求1所述的推薦系統預測模型的訓練方法,其特征在于,采用以下公式計算去噪誤差插補模型的損失:
8.根據權利要求7所述的推薦系統預測模型的訓練方法,其特征在于,采用以下公式計算代理損失:
< ...【技術特征摘要】
1.一種推薦系統預測模型的訓練方法,其特征在于,包括以下步驟:
2.根據權利要求1所述的推薦系統預測模型的訓練方法,其特征在于,基于所有用戶數據、所有物品數據以及觀測到的用戶對物品的評分提取用戶-物品對特征,包括:
3.根據權利要求1所述的推薦系統預測模型的訓練方法,其特征在于,采用以下公式計算所述前饋神經網絡模型的損失:
4.根據權利要求1所述的推薦系統預測模型的訓練方法,其特征在于,采用以下公式計算邏輯回歸模型的損失:
5.根據權利要求1所述的推薦系統預測模型的訓練方法,其特征在于,基于所述訓練樣本集、訓練好的噪聲預測模型和傾向性模型對所述去噪誤差插...
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。