當前位置:
首頁 > 最新 > 預測電影偏好?如何利用自編碼器實現協同過濾方法

預測電影偏好?如何利用自編碼器實現協同過濾方法

選自Medium

作者:Artem Oppermann

機器之心編譯

參與:白妤昕、李澤南

深度自編碼器(Deep Autoencoder)由兩個對稱的深度信念網路組成,它相比常見的自編碼器加入了更多隱藏層。在本文中,作者將嘗試使用該工具進行協同過濾,幫助人們研究和預測大量用戶對於不同電影的喜好。

推薦系統使用協同過濾的方法,通過收集用戶的偏好信息來預測特定用戶的興趣。協同過濾技術的基本假設是,如果用戶 A 對某個問題與人 B 有相同的口味或意見,那麼 A 就更有可能在其他問題上擁有與 B 的相同的意見。

本文將介紹如何根據用戶的偏好、觀看歷史、相同評級和其他電影的其他用戶的評價預測用戶對電影的評分。

目錄:

本文簡介

深度自動編碼器

模型實施

1 介紹

自動編碼器是一種深度學習神經網路架構,可實現協同過濾領域最佳的性能。文章的第一部是理論概述,將會介紹簡單的自動編碼器及深度自編碼器的基礎數學概念。在第二部分中,我們將深入實際展示如何在 TensorFlow 中逐步應用這一技術。本文僅覆蓋和評價模型中最重要的部分。

整個模型的輸入渠道和預處理可以在相應的 GitHub 中查看:https://github.com/artem-oppermann/Deep-Autoencoders-For-Collaborative-Filtering

2. 深度自編碼器

自編碼器

討論深度自編碼器之前,我們先來介紹它稍微簡單些的版本。自編碼器(Autoencoder)是一種人工神經網路,用於學習一組輸入數據的表示(編碼),通常用於實現降維。

在結構上,自編碼器的形式是一個前饋神經網路,由輸入層、一個隱藏層和一個輸出層(圖 1)構成。輸出層與輸入層的神經元數量相同,因此自編碼器屬於無監督學習,這意味著它不需要標記數據——只需要一組輸入數據即可,而不是輸入—輸出對。

圖 1. 典型的 AutoEncoder 架構。

自編碼器的隱藏層比輸入層小,這使得模型可以通過學習數據中的相關性在隱藏層中創建數據的壓縮表示。

輸入層到隱藏層的轉換被稱為編碼步驟,從隱藏層到輸出層的轉換稱為解碼步驟。我們也可以在數學上將這些轉換定義為映射:

該映射是通過將輸入數據向量乘以權重矩陣,添加一個偏差項並將所得到的向量應用於非線性運算,如 sigmoid,tanh 或整流線性單元來實現的。

自編碼器的訓練

在訓練期間,編碼器接收輸入數據樣本 x 並將其映射到所謂的隱藏層或隱層表示 z 上。然後解碼器將 z 映射到輸出向量 x" 上,後者是(在最好的情況下)輸入數據 x 的準確表示。需要注意的是,通常情況下準確地重建 x 是不可能的。

具有輸出 x" 的訓練包括應用隨機梯度下降以最小化預定損失,例如均方誤差:

深度自編碼器

簡單自動編碼器的擴展版是 Deep Autoencoder(圖 2)。從圖 2 中可以看出,它與簡單的計數器部分唯一的區別在於隱藏層的數量。

圖 2. 深度自編碼器的架構。

額外的隱藏層使自編碼器可以從數學上學習數據中更複雜的底層模式。深度自編碼器的第一層可以學習原始輸入中的一階特徵(例如圖像中的邊緣)。第二層可以學習對應於一階特徵的外觀中的圖案的二階特徵(例如,根據哪些邊緣傾向於一起發生——例如以形成輪廓或角檢測器)。深度自編碼器更深層的特性往往可以學習到更高階的特性。

把所有東西放在一起:我們需要更多的層來處理更為複雜的數據——比如我們在協作過濾中使用的數據。

3. 實現

如前文所述,你將學會預測用戶對電影的評級。就此而言,我們將使用著名的 MovieLens 數據集(https://grouplens.org/datasets/movielens/)。MovieLensis 是一個基於網路的推薦系統和推薦用戶觀看電影的在線社區。

更具體地說,我們將使用 ml_1m.zip 數據集,該數據集包含 6,040 個 MovieLens 用戶製作的,約 3,900 部電影的 1,000,209 個匿名評級。我們需要的導入文件是 ratings.dat。該文件包含 1,000,209 行,全部格式如下:user_id :: movie_id :: rating:time_stamp。

例如 ratings.dat 中的第一行:

這意味著用戶 1 給了 595 號電影打了五星評分。評分時間可以被忽略,因為在這裡我們不會使用它。

我們的深度學習模型需要一個特定的數據結構來進行訓練和測試。這種數據結構是一個 UxM 矩陣,其中 U 是用戶數量,M 是電影數量。每行 i∈U 是唯一的用戶 ID,每列 j∈M 是唯一的電影 ID。這種矩陣的可視化效果如圖 3 所示。

此矩陣中的每個條目都是用戶給出特定電影的評分。輸入 0 意味著用戶沒有給這部電影任何評價。例如。上圖中,1 號用戶給電影 3 的評級為四星,而電影第 1 則根本沒有評級。

由於本教程將重點介紹深度學習模型的實現,因此不會在這裡介紹使用 User-Movie-Matrix 超出 ratings.dat 文件的步驟。對於關於這個主題的進一步問題,你可以去我的 GitHub 頁面(https://github.com/artem-oppermann/Deep-Autoencoders-For-Collaborative-Filtering/blob/master/data/preprocess_data.py), 查看相應的 python 腳本。

訓練和測試數據集

在模型實現和訓練之前,我們需要對數據進行其他重新處理步驟,將數據劃分為訓練和測試數據集。這一步驟簡單明了。到目前為止,我們有一個 User-Movie Matrix,其中每一行都是評級列表。要從列表中獲得訓練和測試集,我們需要從每一行中取一部分評級,並將它們用於訓練,其餘子集則用於測試。

作為描述過程的一個例子,我們考慮一個僅包含 15 部電影的小得多的數據集。一個特定的用戶可能出給這樣的電影評級:

請記住,0 表示該電影未被評級。現在我們將前 10 部電影中的一部分作為訓練集並假設其餘的還沒有被評分:

因此,原始數據的最後 5 個電影等級被用作測試數據,而電影 1-10 被掩蓋為未被評級:

此處僅僅簡單演示了如何獲得不同的組合。在原始的 MovieLens 數據集中,我僅使用每個用戶的 10 個電影評級進行測試,其餘(絕大多數)用於模型的訓練。

TensorFlow 實現

1.模型架構

深度自編碼器在這裡作為一個類來實現,其中包含所有必需的操作,如類內的推理、優化、損失、準確性等。

在構造器中,內核初始化器設置了權重和偏差。下一步,網路中的所有權重和偏差都會被初始化。權重是遵從正態分布的,平均值為 0.0,方差為 0.02,而偏差在開始時都設置為 0.0。

在這個特定的例子中,網路有三個隱藏層,每層包含 128 個神經元。輸入層(和輸出層)的大小對應於數據集中所有當前影片的數量。

2.訓練

給定一個輸入數據樣本 x(用戶—電影矩陣的一行),正向傳遞並計算網路輸出。隱藏層使用 sigmoid 作為激活函數。請注意,最後一層沒有非線性或偏置項。

通過網路預測,我們可以計算這些預測與相應標籤(網路輸入 x)之間的損失。為了計算損失的平均值,我們還需要知道非零標籤的數量——也就是訓練集中用戶的總評分數。

網路的優化/訓練步驟似乎有點棘手,讓我們一步一步討論。給定輸入 x,計算相應的輸出。你可能已經注意到,輸入 x 中的大部分值都是零值,因為用戶肯定沒有觀看和評估數據集中的所有 5953 部電影。因此,建議不要直接使用網路的原始預測。相反,我們必須確定數據輸入 x 中零值的索引,並將與這些索引相對應的預測向量中的值也設置為零。這種預測操縱極大地減少了網路的訓練時間,使網路有機會將訓練努力集中在用戶實際給出的評分上。

在此步驟之後,可以計算損失以及正則化損失(可選)。AdamOptimizer 會將損失函數最小化。請注意,該方法會返回一個均方根誤差(RMSE)而不是均方誤差(MSE),以測得更好的精度。

3.測試

訓練幾個 epoch 之後,神經網路已經在訓練集中看到每個用戶的所有評分以及時間了。此時該模型應該已經了解數據中潛在的隱藏模式以及用戶對應的電影評級規律。給定用戶評分訓練樣本 x,該模型預測輸出 x"。該向量由輸入值 x 的重構(如預期)組成,但現在還包含輸入 x 中先前為零的值。這意味著該模型在給未評分的電影打分。這個評級對應於用戶的偏好——模型從數據中已識別和學習到的偏好。

為了能夠測量模型的準確性,我們需要訓練和測試數據集。根據訓練集進行預測。類似於訓練階段,我們只考慮對應於測試集中非零值的索引的輸出值。

現在我們可以計算預測值與實際評分之間的均方根誤差損失(RMSE)。RMSE 表示預測值與觀測值之間差異的樣本標準偏差。例如,RMSE 為 0.5 意味著平均預測評分與實際評分相差 0.5 星。

4.訓練結果

最後一步包括執行訓練過程並檢查模型性能。在這一點上,我不會詳細討論構建數據輸入管道、圖表、會話等細節。因為這些步驟通常是已知的。對此主題感興趣的讀者可以在我的 GitHub 中查看這些步驟:https://github.com/artem-oppermann/Deep-Autoencoders-For-Collaborative-Filtering/blob/master/train.py

在這裡,你可以看到前 50 個迭代次數的訓練和測試表現。50 次後,測試集的預測和實際評分間的偏差是 0.929 星。

本文為機器之心編譯,轉載請聯繫本公眾號獲得授權。

------------------------------------------------

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

ICML 2018 | MILA提出防禦增強型網路:簡單修改已有網路即可提升防攻擊能力
1cycle策略:實踐中的學習率設定應該是先增再降

TAG:機器之心 |