4
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

レコメンドでのEmbeddingに関する考慮点とリンク集

Last updated at Posted at 2022-08-31

レコメンドするにあたり使えそうなEmbeddingを調べたのでまとめます。主に考慮点とリンク集です。

Embeddingするデータ

  1. テキストデータ: word2vec化
  2. ID: ニューラルネットワークのEmbedding層
  3. 購入/閲覧履歴: バスケット単位とするか、ユーザ単位とするかが検討点。

用途

  1. コサイン類似度レコメンド: 単一アイテムに対してコサイン類似度が近いアイテムをレコメンド
  2. Embedding層と他層で学習: ニューラルネットワークの1つの層としてEmbedding層を使用
  3. 特徴量生成: word2vecのように特徴量を生成
  4. リコール層: レコメンド候補となるアイテムの絞り込み(レコメンド対象は別途分類器/回帰で決定)

アルゴリズムと論文

シーケンシャル系

Item2Vec: Neural Item Embedding for Collaborative Filtering

MSの論文

prod2vec: E-commerce in Your Inbox:

Yahooの論文。Product Recommendations at Scale。

prod2vec: Real-time Personalization using Embeddings for Search Ranking at Airbnb

Aribnbの論文。HostとGuestの双方向なのが特徴的らしい。

GitHubにPDFあり。
https://github.com/wzhe06/Ad-papers/blob/master/Embedding/%5BAirbnb%20Embedding%5D%20Real-time%20Personalization%20using%20Embeddings%20for%20Search%20Ranking%20at%20Airbnb%20(Airbnb%202018).pdf

BERT4Rec

中身見ていないが論文リンク貼っておきます。

Graph Embedding

Random Walk

Graph Embeddingとは何と思ったときに、この絵がわかりやすい。
image.png

Graph NN

Embeddingじゃないけど参考

参考

全般。

レコメンドと埋め込み表現。良くまとまっていて参考にしました。

実装している人。行列転置など参考になるかも。

注意点

ハイパーパラメータ。論文の「Word2Vec applied to Recommendation: Hyperparameters Matter」で、結論だけ知りたければ「4. RESULT」の表の「fully optimized SGNS」を見ればOK。表中の()内4つの数値が、以下のハイパーパラメータに対応。

順番 ハイパーパラメータ gensimのWord2Vecパラメータ
1 window-size window
2 number of epochs epochs
3 sub-sampling parameter sample
4 negative sampling distribution parameter ns_exponent

image.png

gensimはこちら。

4
5
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
4
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?