jQuery選擇器
1017
2022-05-30
基于embedding的方法通常直接使用來自KG的信息來豐富物品或用戶的表征。為了利用KG信息,知識圖嵌入(KGE)算法需要應用于將KG編碼為低維embedding。KGE算法可以分為兩類:平移距離模型,如TransE 、TransH 、TransR 、TransD等,以及語義匹配模型,如DistMult 。根據用戶是否包含在KG里面,embedding方法可以分為兩類,一類是基于物品圖,一類是基于用戶-物品圖。
基于物品圖
KG由物品及其從數據集中抽取出的相關屬性構成,將這類KG稱為物品圖。在這類KG中,不包含用戶。對于這類圖,可以通過KGE的算法,來表示KG中的物品,并將關于物品的表示合并至推薦框架中。
通常的做法是,
通過聚合KG中的相關物品信息以及物品屬性向量
用戶向量可以通過用戶-物品交互矩陣,交互物品的embedding得到
通過一個函數將用戶和物品向量映射成一個偏好得分。(利用點乘的方式或經過全連接層)
在推薦策略階段,其得分結果將按降序排列
相關模型:
CKE:在CF框架中統一了各種類型的輔助信息。用KG來表示的物品屬性信息,和物品的文本信息訓練KG的embedding。物品向量通過TransR計算得到。用戶向量通過用戶-物品交互矩陣得到,對兩個向量做點乘,對結果排序。
DKN:基于新聞推薦領域,將句子的上下文embedding通過CNN得到。文本中entity的知識級embedding使用TrankD表示。最終的物品向量由KG的entity embedding和高層次的語義信息聚合得到。用戶向量通過attention計算用戶的歷史新聞信息得到。對于每一個用戶向量,首先計算歷史新聞中每一條新聞的softmax得分,然后對各個得分和對應的物品向量相乘求和,得到用戶向量。利用全連接層計算得到最終得分。
KRS:利用GRU和KV-MV網絡建模用戶時序性的交互信息。GRU捕獲用戶的時序性信息,KV-MN通過TransE建模用戶的特征信息。該方式能捕獲用戶的細粒度偏好。
基于用戶-物品圖
另一種直接基于embedding的方法構建用戶-物品圖,其中用戶、物品及其相關屬性作為節點,在用戶-物品圖中,屬性級關系(品牌、類別等)和用戶相關關系(共同購買、共同視圖等)都作為邊。之后獲取圖形中實體的embedding,用點乘計算用戶的偏好,也可以進一步考慮圖中的關系embedding,再進行點乘計算。
相關模型:
CFKGF:構建用戶物品圖譜,用戶行為作為關系類型以及物品的輔助信息。
有些論文有試圖通過強化的實體/關系表示來提高推薦性能。
KTGAN:物品知識embedding向量通過Metapath2Vec得到,電影物品的tag信息通過Word2vec得到,最終的物品向量是上面兩個的拼接。用戶向量是由用戶喜愛的電影知識embedding的平均向量和用戶標簽embedding拼接得到。然后通過一個生成器模型生成用戶喜愛的電影,利用得分函數,段判別模型是一個二分類模型,來判別用戶是否喜歡生成的電影。
BEM: 它使用物品的兩種類型圖,知識相關圖(包含物品屬性信息,如品牌、類別、等)和行為圖(包含與物品交互相關的信息,包括共同購買、共同費率、共同添加到購物車)。BEM首先學習初始embedding,從知識相關圖和行為圖分別使用TransE模型和基于GNN的模型。BEM應用貝葉斯框架來細化這兩種類型的embedding。推薦系統可以通過在行為圖中的“共同購買”或“共同點擊”的關系查找交互物品中最接近的物品。
基于embedding的多任務學習
基于embedding方法的另一個趨勢是采取多任務策略學習,共同學習推薦任務KG相關任務,物品的embedding和KG的entity embedding共享參數。
相關模型:
KTUP:聯合學習推薦模塊和KG表示。
MKR:聯合學習推薦模塊和KG表示,前者學習用戶和物品的潛在表示,而后者學習關聯項的表示具有語義匹配KGE模型的實體。
RFC:對物品進行分層描述,包括其關系類型embedding和關系值embedding。使用KGE的DistMult模型保留物品之間的關系結構。通過attention機制分別對用戶的類型偏好和價值偏好建模。
Embedding-base methods 總結
大多數基于embedding的方法是使用多類型的輔助信息構建KG來強化物品的表示,以及對用戶信息精確建模。另一部分模型將用戶引入圖用來構建用戶-物品圖譜,這樣可以直接貴用戶的偏好建模。
因為實體embedding是embedding-base的核心,所以部分論文通過GAN和BEM來強化embedding以到達更好的推薦效果。還有部分策略是通過聯合學的方式,聯合訓練推薦模塊和關系圖來提高推薦質量。
推薦系統 RES 深度學習
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。