日本在线观看不卡,国产成人免费观看,国产gaysex男同视频chinese,欧美一级www

樹人論文網(wǎng)一個(gè)專業(yè)的學(xué)術(shù)咨詢網(wǎng)站!!!
樹人論文網(wǎng)

融合文本信息的多模態(tài)深度自編碼器推薦模型

來源: 樹人論文網(wǎng)發(fā)表時(shí)間:2021-09-23
簡(jiǎn)要:摘要:針對(duì)以評(píng)分信息做輔助推薦時(shí)數(shù)據(jù)稀疏和深層次語義信息無法學(xué)習(xí)的問題,提出了一種新的推薦模型。以隱式反饋評(píng)分矩陣作為深度自編碼器的原始輸入,通過編碼解碼操作,實(shí)現(xiàn)評(píng)分

  摘要:針對(duì)以評(píng)分信息做輔助推薦時(shí)數(shù)據(jù)稀疏和深層次語義信息無法學(xué)習(xí)的問題,提出了一種新的推薦模型。以隱式反饋評(píng)分矩陣作為深度自編碼器的原始輸入,通過編碼解碼操作,實(shí)現(xiàn)評(píng)分信息的特征學(xué)習(xí);用戶電影類型矩陣為模型嵌入層的輸入,經(jīng)過平坦層和全連接層的操作,實(shí)現(xiàn)類型文本信息的特征學(xué)習(xí);同時(shí),使用BERT+BiLSTM結(jié)構(gòu)對(duì)電影標(biāo)題文本進(jìn)行上下文信息的特征提取和特征學(xué)習(xí)。3種特征融合后,通過自編碼器的處理得到預(yù)測(cè)評(píng)分。以Movielens1M和Movielens100k為數(shù)據(jù)集,平均絕對(duì)誤差和均方誤差為評(píng)價(jià)指標(biāo),SVD、PMF、PMMMF、SCC、RMbDn、Hern為對(duì)比模型,結(jié)果表明:本文模型在MAE上分別降低到0.0458和0.0460,在MSE上分別降低到0.0273和0.0390,優(yōu)于對(duì)比算法,新的推薦模型性能提升效果較好。

融合文本信息的多模態(tài)深度自編碼器推薦模型

  陳金廣; 徐心儀; 范剛龍, 西安工程大學(xué)學(xué)報(bào) 發(fā)表時(shí)間:2021-09-18

  關(guān)鍵詞:推薦算法;BERT;BiLSTM;深度自編碼器;文本信息

  0引言

  隨著大數(shù)據(jù)時(shí)代的到來,推薦系統(tǒng)作為緩解信息過載的重要技術(shù),已經(jīng)在電子商務(wù)[1]領(lǐng)域廣泛應(yīng)用。為了提供更好的個(gè)性化推薦服務(wù),準(zhǔn)確地預(yù)測(cè)用戶對(duì)商品的評(píng)分是推薦系統(tǒng)需要解決的關(guān)鍵問題。目前推薦系統(tǒng)領(lǐng)域的研究方向主要分為基于內(nèi)容[2]的推薦、基于協(xié)同過濾[3-4]的推薦和混合推薦[5-6]3種。但是,傳統(tǒng)矩陣分解算法[7]難以適應(yīng)當(dāng)前復(fù)雜的環(huán)境。近年來,深度學(xué)習(xí)技術(shù)飛速發(fā)展并在圖像等領(lǐng)域取得巨大的突破,越來越多的學(xué)者將深度學(xué)習(xí)技術(shù)應(yīng)用到推薦系統(tǒng)中[8]。

  在基于深度學(xué)習(xí)并結(jié)合文本信息的推薦方法中,關(guān)鍵是獲取文本信息的上下文。在提取上下文特征方面,KIMD等提出一種上下文感知的卷積矩陣分解模型[9],該模型將卷積神經(jīng)網(wǎng)絡(luò)融入概率矩陣分解模型中,提高了預(yù)測(cè)評(píng)分的準(zhǔn)確性,但在感知上下文方面存在較大欠缺。LIUQ等提出了基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的CA-RNN模型[10],該模型引入了具有上下文感知的輸入矩陣和具有上下文感知的轉(zhuǎn)移矩陣,能夠較好地感知上下文,但是在聯(lián)系雙向上下文信息方面效果并不顯著。DEVLINJ等提出BERT模型(BidirectionalEncoderRepresentationfromTransformers)[11],該模型可以融合雙向上下文信息,進(jìn)一步地融合句中語義信息,從而更好地提取含有上下文信息的特征表示;在學(xué)習(xí)上下文特征方面,HOCHREITERS提出了長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)模型[12],該模型只能獲得與前詞相關(guān)的前文信息,無法獲得上下文相關(guān)信息。XIAOZ等在LSTM的基礎(chǔ)上提出雙向長(zhǎng)短期記憶網(wǎng)絡(luò)模型(BidirectionalLongShort-termMemory,BiLSTM)[13],該模型通過設(shè)計(jì)前后2個(gè)方向的LSTM,分別獲得當(dāng)前詞與上下文的關(guān)系。現(xiàn)有的推薦算法大多利用顯式的評(píng)級(jí)信息進(jìn)行推薦[14],但大部分平臺(tái)上的用戶只產(chǎn)生用戶瀏覽和點(diǎn)擊等隱式的交互信息[15],這使得傳統(tǒng)的基于評(píng)分預(yù)測(cè)的推薦算法不能滿足相關(guān)平臺(tái)的需要[16]。近年來,基于用戶隱式歷史反饋信息的推薦算法受到了學(xué)術(shù)界的廣泛關(guān)注,研究發(fā)現(xiàn),隱式反饋在交互環(huán)境中可以成為顯式反饋的替代[17],這就為本文利用隱式反饋矩陣作為輸入進(jìn)行電影推薦提供了可能性。目前,主流的結(jié)合隱式反饋的推薦模型大多基于貝葉斯個(gè)性化排名框架[18]。DUL等通過增加1個(gè)社會(huì)正則化項(xiàng)來擴(kuò)展貝葉斯個(gè)性化排名,算法同時(shí)針對(duì)用戶對(duì)商品的偏好及其社會(huì)關(guān)系進(jìn)行建模[19],雖然獲得了比BPR更好的推薦質(zhì)量,但存在建模的不確定性。PANW等在此基礎(chǔ)上進(jìn)一步提出了GBPR(Group-basedBPR)模型[20],這是一種將用戶對(duì)項(xiàng)目的偏好分組進(jìn)行聚合的方法,以減少建模的不確定性,提高推薦的準(zhǔn)確性。隨著深度學(xué)習(xí)的廣泛應(yīng)用,WUY等提出協(xié)同降噪的自動(dòng)編碼器(DenoisingAuto-Encoders)[21],利用自動(dòng)編碼器技術(shù)結(jié)合隱式反饋,獲得了更好的推薦效果。

  本文通過BERT+BiLSTM結(jié)構(gòu)提取和學(xué)習(xí)電影標(biāo)題中短文本信息的上下文特征,融合文本信息做輔助推薦,解決了梯度消失和梯度爆炸的問題;隱式反饋與深度自編碼器結(jié)合,通過矩陣分解,實(shí)現(xiàn)數(shù)據(jù)降維和特征抽取,解決了推薦過程中數(shù)據(jù)的稀疏問題;在經(jīng)典數(shù)據(jù)集Movielens100k和Movielens1M上進(jìn)行實(shí)驗(yàn),平均絕對(duì)誤差損失值分別降低到0.0458和0.0460,均方誤差損失值分別降低到0.0273和0.0390。

  1模型構(gòu)建技術(shù)

  1.1隱式反饋

  在顯式反饋推薦中,用戶對(duì)電影的評(píng)分范圍為1~5,表示用戶對(duì)電影的傾向程度,分?jǐn)?shù)越高,傾向程度越大。而在隱式反饋推薦中,只包括了用戶對(duì)電影有評(píng)分和沒有評(píng)分2種情況,反映用戶對(duì)電影有傾向和暫時(shí)沒有傾向。顯式評(píng)分矩陣轉(zhuǎn)換為隱式評(píng)分矩陣如圖1所示。圖1中的空白部分表示用戶對(duì)電影沒有評(píng)分記錄。

  假設(shè)m和n分別表示用戶和電影的集合。定義用戶電影隱式評(píng)分矩陣:Rm×n=[rui|u∈m,i∈n](1)rui=1,用戶對(duì)電影有評(píng)分{0,otherwise(2)式中:Rm×n為使用隱式評(píng)分填充的矩陣;rui表示在Rm×n中用戶u對(duì)電影i的隱式評(píng)分,rui值為1,表示用戶對(duì)該電影有傾向,否則沒有。

  1.2深度自編碼器

  對(duì)于深度自編碼器模型[22-23],網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

  輸入層為具有獨(dú)熱編碼的稀疏二進(jìn)制向量,向量傳入嵌入層進(jìn)行編碼和特征學(xué)習(xí)。嵌入層由編碼器和解碼器組成,用于映射向量。其中,編碼器的256維全連接層用于將高維原始數(shù)據(jù)轉(zhuǎn)換到低維空間,解碼器則為編碼器的逆過程,將低維數(shù)據(jù)轉(zhuǎn)換到高維原始空間。

  在編碼器和解碼器之間存在隱藏層,隱藏層中使用Relu作為激活函數(shù),Relu函數(shù)表達(dá)式:Relu(e)=max(e,0)(3)同時(shí),為了防止過擬合,還加入了dropout層。dropout率設(shè)置為0.1。輸出層的輸出由模型的具體功能決定。本文模型中,深度自編碼器的輸出為用戶對(duì)電影的預(yù)測(cè)評(píng)分。

  1.3BERT+BiLSTM

  BERT+BiLSTM結(jié)構(gòu)由BERT、BiLSTM模塊組成,BERT+BiLSTM結(jié)構(gòu)如圖3所示。圖3中,BERT模型是基于多層雙向Transformer的預(yù)訓(xùn)練語言理解模型[11],該模型由輸入層、編碼層和輸出層3部分構(gòu)成。本文利用其編碼層進(jìn)行字向量的特征提取,編碼層是Transformer[24],即“Trm”層。“Trm”層是由多個(gè)重疊的單元組成,并且每個(gè)單元由多頭注意力機(jī)制和前饋神經(jīng)網(wǎng)絡(luò)組成,單元內(nèi)部的子層之間設(shè)計(jì)了殘差連接,可以將上一層的信息完整地傳到下一層,從而計(jì)算詞語之間的相互關(guān)系,并利用所計(jì)算的關(guān)系調(diào)節(jié)權(quán)重,提取文本中的重要特征。

  BiLSTM即雙向長(zhǎng)短期記憶網(wǎng)絡(luò)的出現(xiàn)是為了解決LSTM在單向的處理中模型只分析到文本的“上文”信息,而忽略可能存在聯(lián)系的“下文”信息[25]。本文使用的BiLSTM結(jié)構(gòu)是由向前LSTM和向后LSTM組合而成,較單向的LSTM能夠?qū)W習(xí)到上下文特征信息,更好地捕捉雙向語義依賴。

  2多模態(tài)深度自編碼器模型

  融合文本信息的多模態(tài)深度自編碼器模型結(jié)構(gòu)如圖4所示。

  2.1數(shù)據(jù)預(yù)處理

  根據(jù)n個(gè)用戶對(duì)m部電影的評(píng)分生成隱式反饋評(píng)分矩陣Rm×n,根據(jù)電影類型文本信息和電影標(biāo)題文本信息分別生成用戶-電影類型矩陣Ruser×genres和用戶-電影標(biāo)題矩陣Ruser×title,3個(gè)矩陣均為由one-hot向量組成的矩陣。

  2.2模型輸入

  將Rm×n作為深度自編碼器的原始輸入,Ruser×genres作為模型中嵌入層的輸入,將Ruser×title作為BERT+BiLSTM結(jié)構(gòu)的輸入。

  2.3特征學(xué)習(xí)

  深度自編碼器對(duì)Rm×n進(jìn)行1次編碼解碼得到評(píng)分特征Tm×n;Ruser×genres經(jīng)過嵌入層、平滑層和全連接層進(jìn)行特征學(xué)習(xí),得到電影類型文本特征Tuser×genres;在BERT+BiLSTM結(jié)構(gòu)中,BERT部分實(shí)現(xiàn)對(duì)Ruser×title進(jìn)行文本數(shù)據(jù)向量化和特征提取,BiLSTM部分則實(shí)現(xiàn)向量化特征學(xué)習(xí),得到電影標(biāo)題的上下文特征Tuser×title。

  2.4特征融合

  獲取學(xué)習(xí)到的特征Tm×n、Tuser×genres和Tuser×title,假設(shè)T為融合后的特征,使用函數(shù)Concatenate對(duì)3個(gè)特征實(shí)現(xiàn)特征融合,即T=Concatenate(Tm×n,Tuser×genres,Tuser×title)(4)將T再次輸入深度自編碼器中,對(duì)T實(shí)現(xiàn)二次編碼解碼,得到預(yù)測(cè)評(píng)分矩陣R'm×n。

  2.5模型輸出

  輸出預(yù)測(cè)評(píng)分矩陣R'm×n,用于后續(xù)電影推薦。

  3結(jié)果與分析

  3.1數(shù)據(jù)集

  為了驗(yàn)證本文模型的有效性,采用Movielens100k和Movielens1M電影評(píng)分?jǐn)?shù)據(jù)集。它由明尼蘇達(dá)大學(xué)的Lens研究小組提供,用于測(cè)試和驗(yàn)證所提出的模型和其他用于比較的模型的性能。

  在讀取數(shù)據(jù)后,用評(píng)分?jǐn)?shù)據(jù)填充評(píng)分矩陣,以用戶為行,項(xiàng)目為列,分別構(gòu)成Movielens100k和Movielens1M的矩陣。MovieLens1M和Movielens100k數(shù)據(jù)集描述信息見表1。

  3.2評(píng)價(jià)指標(biāo)

  采用均方誤差(MSE,簡(jiǎn)記為EMS)和平均絕對(duì)誤差(MAE,簡(jiǎn)記為EMA)評(píng)價(jià)模型的預(yù)測(cè)性能:EMS=1n∑nui=1(rui-^rui)2(5)EMA=1n∑nui=1|(rui-^rui)|(6)式中:n為預(yù)測(cè)電影的總數(shù),rui表示用戶u在電影i上的預(yù)測(cè)評(píng)分,^rui表示用戶u在電影i上的真實(shí)評(píng)分。

  3.3模型設(shè)置

  本文模型的整體實(shí)現(xiàn)環(huán)境為Keras=2.2.4,Tensorflow-gpu=1.12.0。在優(yōu)化器選取中,分別采用Adadelta、Adagrad、Adam、Adamax、RMSprop以及SGD等6個(gè)主流優(yōu)化器進(jìn)行對(duì)比實(shí)驗(yàn),在不同優(yōu)化器下取得的均方誤差見表2。

  從表2可以看出,在Movielens1M數(shù)據(jù)集下,Adam優(yōu)化器取得了最低損失值;在Movielens100k數(shù)據(jù)集下,Adagrad優(yōu)化器取得了最低損失值,而Adam優(yōu)化器的損失值與Adagrad優(yōu)化器相差0.0036,均方誤差結(jié)果處于中等。究其原因可知,通過與Movielens1M對(duì)比,Movielens100k數(shù)據(jù)集的數(shù)據(jù)量過小,易造成精度過低和損失率升高,所以求取在2個(gè)數(shù)據(jù)集下MSE的平均值,以平均值作為衡量標(biāo)準(zhǔn),得到Adam優(yōu)化器明顯優(yōu)于其他優(yōu)化器。

  因此,本文模型采用Adam優(yōu)化器,設(shè)置初始學(xué)習(xí)率為0.0001,batch-size為64,在數(shù)據(jù)集MovieLens1M和Movielens100k的基礎(chǔ)下訓(xùn)練模型。

  3.4對(duì)比實(shí)驗(yàn)

  圖5~6分別為基于Movielens1M和Movielens100k數(shù)據(jù)集,MAE和MSE在訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)上隨訓(xùn)練輪數(shù)增加的變化情況。

  從圖5~6可以看出,在Movielens1M和Movielens100k數(shù)據(jù)集上,隨著訓(xùn)練輪數(shù)的增加,EMA和EMS損失值先迅速下降然后趨于平穩(wěn)。究其原因可知,隨著訓(xùn)練數(shù)據(jù)集的增加及訓(xùn)練輪數(shù)的增長(zhǎng),模型能夠?qū)W習(xí)到的用戶和電影的特征增多,使模型預(yù)測(cè)更準(zhǔn)確,因此損失下降。而當(dāng)模型能夠?qū)W習(xí)到的特征趨于飽和時(shí),隨著輪數(shù)的增長(zhǎng),損失值則趨于平穩(wěn)。

  因?yàn)镾VD和PMF是依照矩陣分解原理實(shí)現(xiàn)推薦的傳統(tǒng)算法以及實(shí)驗(yàn)條件的限制,所以選取這2種算法與本文模型進(jìn)行實(shí)驗(yàn)對(duì)比,以MAE作為評(píng)價(jià)指標(biāo)。

  不同模型在不同數(shù)據(jù)集上的MAE損失見表3。

  從表3可以看出,在2個(gè)不同的數(shù)據(jù)集上,本文模型的結(jié)果明顯優(yōu)于所比較的傳統(tǒng)算法。在本文模型中,對(duì)不同矩陣實(shí)現(xiàn)了針對(duì)性處理,因此在訓(xùn)練模型的過程中,提升了矩陣分解的效率和模型的預(yù)測(cè)效果,從而使損失值降低。但是,在Movielens1M數(shù)據(jù)集和Movielens100k數(shù)據(jù)集上,單個(gè)模型的MAE值差別不大,針對(duì)本文模型而言,僅相差0.0002。原因可能在于MAE評(píng)價(jià)指標(biāo)對(duì)數(shù)據(jù)集中的異常點(diǎn)有更好的魯棒性,而且使用固定學(xué)習(xí)率訓(xùn)練模型時(shí),更新的梯度始終相同,不利于MAE值的收斂以及模型的學(xué)習(xí)。

  由于數(shù)據(jù)集較為穩(wěn)定,并且MSE在固定的學(xué)習(xí)率下可以實(shí)現(xiàn)有效收斂,因此在MSE評(píng)價(jià)指標(biāo)下,進(jìn)行了更為詳細(xì)的對(duì)比實(shí)驗(yàn)。

  表4給出了本文模型、SVD、PMF、PMMMF、SCC、RMbDn及Hern的MSE損失值。

  從表4可以看出,本文模型在Movielens1M數(shù)據(jù)集的基礎(chǔ)上進(jìn)行實(shí)驗(yàn)時(shí),損失值降低到0.0273,明顯低于其他對(duì)比模型的損失值。而在Movielens100k上進(jìn)行實(shí)驗(yàn)時(shí),得到的損失值與RMbDn模型以0.0390并列第一。分析原因可知,RMbDn和本文模型均使用深度學(xué)習(xí)進(jìn)行推薦,能夠更好地捕捉到深層次的語義信息,因此對(duì)比其他模型,取得了更好的效果;同時(shí)觀察表4,發(fā)現(xiàn)本文模型在Movielens100k上的損失相較在Movielens1M上增加了0.0117,存在較大差異。分析原因可知,Movielens100k相較于Movielens1M數(shù)據(jù)量小,因此在小樣本下使用深度學(xué)習(xí)網(wǎng)絡(luò)對(duì)標(biāo)題、類型等文本數(shù)據(jù)的語義信息進(jìn)行理解時(shí),可能較難學(xué)習(xí)到語義信息對(duì)用戶興趣遷移的影響,從而使相同模型在不同數(shù)據(jù)集上的損失值升高。因此本文提出的模型更適合在數(shù)據(jù)量較大的情況下使用。

  綜上所述,與已有的主流模型相比,本文模型具有更低的損失值,說明將文本信息融合在深度自編碼器中可獲得更多評(píng)分預(yù)測(cè)的信息,提高個(gè)性化推薦效率。

  4結(jié)論

  1)提出了融合文本信息的多模態(tài)深度自編碼器推薦模型,在2個(gè)公開數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),驗(yàn)證了模型的有效性,達(dá)到了性能提升的效果。

  2)該模型將隱式反饋評(píng)分矩陣作為基礎(chǔ),使用BERT+BiLSTM結(jié)構(gòu)和模型的嵌入層,實(shí)現(xiàn)不同文本信息的特征學(xué)習(xí),在深度自編碼器中完成不同特征的深層次融合,可明顯降低推薦過程中的損失。

  3)由于顯式反饋仍存在研究的價(jià)值,應(yīng)考慮結(jié)合顯式反饋信息進(jìn)行混合推薦。