醫(yī)學(xué)知識圖譜之關(guān)系預(yù)測模型
1. 知識圖譜舉例
1.1 疾病知識圖譜
1.2 藥物知識圖譜
2.常見知識圖譜關(guān)系預(yù)測算法
KGs能夠以機器可讀的方式對結(jié)構(gòu)化、復(fù)雜的數(shù)據(jù)進行建模,因此它被廣泛應(yīng)用于各個領(lǐng)域如問答、信息檢索、基于內(nèi)容的推薦系統(tǒng)等。KG對于任何語義web項目都非常重要。但由于信息缺失導(dǎo)致的KG不完整,常常使得一些KG表現(xiàn)力較差。
1.邊預(yù)測目的:預(yù)測出一個三元組( h , r , t )缺失的頭實體 h ,尾實體 t 或者關(guān)系 r 。
2.邊預(yù)測有助于更好地構(gòu)建、表示、補全、應(yīng)用知識圖譜。
2.1 關(guān)系預(yù)測模型梳理
每個模型側(cè)重點不一樣,都有各自的缺陷,如:
①TransE:只適合處理一對一關(guān)系,一對多,多對一表現(xiàn)力差;
②TransR:同一關(guān)系下,頭尾實體共享投影矩陣;
③DistMult:將關(guān)系表示為對角陣,只能處理對稱關(guān)系;
2.2 預(yù)測算法公式
基于h, r, t簡單組合的缺點
①實際的實體和關(guān)系更為復(fù)雜,簡單的h、r、t之間的組合不能有效地表達知識。
②不同場景下適用的模型區(qū)別很大,無法有效率地得知當前場景下適用的模型,模型選取和調(diào)參過程費時費力;
3. DeepKG中關(guān)系預(yù)測模型的優(yōu)勢
過程
1.先將知識圖譜特征化,把實體和關(guān)系通過embedding轉(zhuǎn)化成向量作為模型的初始輸入。
2.通過模型集成模塊融合多個經(jīng)典KGE模型作為基,將實體和關(guān)系分別輸入各個基模型進行h,r,t的不同轉(zhuǎn)化運算。
3.設(shè)置一組可學(xué)習的采樣概率π,作為每個候選模型的采樣概率,通過Gumbel-Softmax進行計算得到模型對應(yīng)的權(quán)重。
4.將模型權(quán)重與其對應(yīng)的候選模型的評分函數(shù)相乘,作為該候選模型的評分,而本次采樣的評分則為所有候選模型評分之和。
5.對步驟3和4重復(fù)執(zhí)行M次,并將多次采樣得到的評分求均值,即可求得融合模型的最終評分。
特點
傳統(tǒng)的知識圖譜嵌入模型都是通過h、r、t之間關(guān)系的簡單建模實現(xiàn),單個模型應(yīng)用場景有限;AutoTransX可融合多種經(jīng)典知識圖譜嵌入模型,集成了各模型在不同場景下的優(yōu)勢;
訓(xùn)練過程可微分,在訓(xùn)練參數(shù)的同時自動搜索模型結(jié)構(gòu),能針對不同數(shù)據(jù)動態(tài)調(diào)整,靈活選出適用于當前任務(wù)的最優(yōu)模型結(jié)構(gòu),提升性能。
用Gumbel-Softmax替代傳統(tǒng)的Softmax,多次Gumbel分布采樣引入隨機性和探索度,避免在訓(xùn)練過程中陷入局部最優(yōu)解,結(jié)果更魯棒
知識圖譜
版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔相應(yīng)法律責任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內(nèi)刪除侵權(quán)內(nèi)容。