7
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

and factory.incAdvent Calendar 2024

Day 7

協調フィルタリングで映画の推薦システムを作る

Last updated at Posted at 2024-12-07

概要

and factoryでiOSエンジニアをやってる@chitomo12です。

最近、個人的に推薦システムに対する熱量がヒートしており、普段はデータサイエンス的な業務にはほとんど携わってないですがちょっくら簡易的な推薦システムを作ってみることにしました。

完成物は下画像のようなものになります。

80fbb9d4-711e-4fc2-b565-4cbb14783fb2.png


どんな推薦システムを作りたいか

現在参与しているのが漫画アプリのプロジェクトなので、いつかは漫画を推薦するシステムが作れたら〜というのが理想です。

ただ残念ながら、学習目的で推薦システムを作るにあたり漫画のデータセットというのは世の中に存在しないので、代わりに映画のレビューのデータセットとして有名なMovieLensを使った映画の推薦システムを作ることにします。

今回はAmazonの「この商品に関連する商品」のようにユーザーではなく映画同士の類似性をもとに、ある映画に近い(類似度が高い)他の映画を推薦したいと思い、今回試してみたのが「協調フィルタリング」です。

image.png

協調フィルタリングについて

協調フィルタリングとは、あるユーザーに対してその人と好みの近い他ユーザーが好むアイテムを推薦する手法です。

たとえば、ニンテンドースイッチと「あつまれどうぶつの森」を買ったユーザーが沢山いたとすると、ニンテンドースイッチだけ買ったユーザーも「あつまれどうぶつの森」を気に入るだろうと予測して推薦する、という推薦手法です。

実際のWebサービスだとユーザーごとにパーソナライズしてアイテムを推薦したい場合に他ユーザーの行動を参考にアイテムを推薦すると良い結果が得られるということで協調フィルタリングが活用されている模様です。

今回はAmazonの「この商品に関連する商品」のように任意のアイテムが他アイテムにどれだけ類似しているかを割り出したいので、ユーザー同士の類似度を映画に対する反応によって測るのではなく、 映画同士の類似度をユーザーからの反応によって計ることにしました。

ここで先に結論ですが、この方法で特定の映画に近い映画を相当の納得感をもってピックアップすることはできましたが、パフォーマンス面では致命的な課題が残りました。

それを踏まえて以下の実装例を参考にして頂ければと思います。

実装

ブラウザ上で完結するGoogle ColabでPythonを書いていきます。

必要なライブラリをインポート

# データセットのダウンロード用
import requests
import zipfile

# ベクトル計算用
import pandas as pd
import numpy as np
from sklearn.metrics.pairwise import cosine_similarity

# 処理時間計測用
import time

データセットをダウンロード

MovieLensのデータセットをダウンロードし、Colabのディレクトリに解答します。

使用するデータセットは、6000人のユーザーによる4000本の作品に対する100万のレビュー情報を収容したMovieLens 1M Dataset です。

# データセットをダウンロードし解凍
url = "https://files.grouplens.org/datasets/movielens/ml-1m.zip"
zip_path = "ml-1m.zip"

response = requests.get(url)
with open(zip_path, "wb") as f:
    f.write(response.content)

with zipfile.ZipFile(zip_path, "r") as zip_ref:
    zip_ref.extractall(".")

サイドバーのファイルml-1mディレクトリが展開されていればOKです。

データセットの読み込み

レコメンド処理実行後に作品名を確認できるよう、movie_idtitleが含まれるmovies.datを読み込みDataFrame化しておきます。

# 作品情報を読み込みデータフレーム化
movie_columns = ["movie_id", "title", "genres"]
movies_df = pd.read_csv(
    "./ml-1m/movies.dat",
    sep="::",
    engine="python",
    names=movie_columns,
    encoding="latin1"
)
# 確認
movies_df.head()

image 3.png

よくあるチュートリアルだとmovie_idを吐き出して終わりで、「それらしい」推薦システムにどれくらい近づいたかの検証がされてない印象なので、冗長ですがこの処理を挟み込むことにしました。

次にレビューのデータを読み込みます。

レビュー情報が入ったratings.datはユーザーと映画のレビュー記録が縦に長く並んだ形式なので、これを後述するコサイン類似度の計算で扱えるようpd.pivot_tableで表形式に変換します。行にmovie_id、列にuser_id、値にratingを指定しています。

# レビュー情報を読み込み
ratings_columns = ["user_id", "movie_id", "rating", "timestamp"]
ratings_df = pd.read_csv(
    "./ml-1m/ratings.dat",
    sep="::",
    engine="python",
    names=ratings_columns
)
# 
item_indexed_rating_df = pd.pivot_table(
    data=ratings_df.drop("timestamp", axis=1),
    index="movie_id",
    columns="user_id",
    values="rating"
)
# NaNは0で埋める
item_indexed_rating_df = item_indexed_rating_df.fillna(0)
# 確認
item_indexed_rating_df

image 4.png

コードを実行して、出力に3706行(映画のid数)、6040列(ユーザーのid数)のDataFrameが表示されていればOKです。

コサイン類似度計算によるレコメンド関数

ここから本題である協調フィルタリングのロジックを作っていきます。

おさらいですが、協調フィルタリングでは特定のアイテムの傾向をアイテム自体が持つ情報(アイテム名、カテゴリなど)ではなく、そのアイテムに対するユーザーの反応を元に、そのアイテムと近いアイテムを探索します。

この其々のアイテムに紐づくユーザーの反応(item:1に対するuser:1の評価、user:2の評価 etc…)をコンピュータで計算可能な形に変換したのが先のステップで作成したitem_indexed_rating_dfの各行の[0, 1, 1, …]といった数値の集合で、この数値の集合を数学的な「ベクトル」として扱い、ベクトル同士の類似度を計算することで特定のアイテムが他のアイテムとどれくらい近いかを数値として表すことができます。

ではベクトル同士の類似度を計算するのに何を類似度の尺度とするかということで、一般的に起用されるのが 「コサイン類似度」 です。

高校数学で数Cを学んだ人は 「内積」 という言葉に覚えがあるかと思います。

「ベクトルa・ベクトルb」で表される式を「ベクトルa、ベクトルbの内積」などと呼び、また下の式のようにも表現することができます(数式の証明は割愛します。気になる人はこの辺の資料を参考ください)。

$$
\vec{a}\cdot\vec{b}=|a||b|\cos\theta
$$

この式をcosθ基準の式にすればベクトルaとベクトルbの角度を求めることができます。

$$
\cos\theta=\dfrac{\vec{a}\cdot\vec{b}}{|a||b|}
$$

この公式を応用し、ベクトルaとベクトルbがなす角度θを類似度の尺度にしたものがコサイン類似度というものです。ベクトルaとベクトルbの角度が小さい(≒cosθが1に近似する)ほど、二つのベクトルは類似度が高いと考えられるわけです。

高校数学では2次元ベクトルか3次元ベクトルばかりが問題に出てきたかと思いますが、この公式を適用できるベクトルの次元数に理論上上限はありません。

つまり、MovieLensのデータセットから作られた6040次元ベクトルのユーザーレビューもこれで類似度を計算できるというわけです。

これを簡易的にPythonで書くと次のようなコードになります。

# サンプル
vector_A = np.array([1, 0, 1])
vector_B = np.array([0, 1, 1])

# 内積計算
dot_product = np.dot(vector_A, vector_B)
# ノルム(ベクトルの大きさ)の計算
norm_A = np.linalg.norm(vector_A)
norm_B = np.linalg.norm(vector_B)

# cos類似度計算
cosine_similarity = dot_product / (norm_A * norm_B)
print("Cosine_similarity:", cosine_similarity)
# Result -> Cosine_similarity: 0.4999999999999999

これはオープンソースの機械学習ライブラリであるscikit-learncosine_similarity()関数を使うとさらに短く書くこともできます。結果は同じです。

# サンプル
vector_a = np.array([[1, 0, 1]])
vector_b = np.array([[0, 1, 1]])

# コサイン類似度を計算
similarity = cosine_similarity(vector_a, vector_b)
print("Cosine Similarity:", similarity[0][0])
# Result -> Cosine Similarity: 0.4999999999999999

以上を元に、レコメンドのロジックを実装した関数が以下のコードです。

作品のIDを渡して、その作品と他の全作品のコサイン類似度を計算し、上位数件を返すというユースケースを想定しています。

# 指定したitem_idに類似したitem_idを探索する関数
def recommend_similar_item(base_item_id: int, rating_df, movies_df):
  """
  指定したitem_idに類似したitem_idを探索する関数.

  Args:
      base_item_id (int): 対象とする作品のID.
      rating_df (DataFrame): 表形式のRating情報のDataFrame.
      movies_df (DataFrame): IDとタイトル情報を持つDataFrame.

  Returns:
      DataFrame: 最も類似度の高い11作品(元作品含む)のDataFrame.
  """
  # 処理時間計測(任意)
  start_time = time.time()
  
  # base_item_idに合致する行が無い場合はエラーを返す(任意)
  if base_item_id not in rating_df.index:
    raise ValueError(f"base_item_id {base_item_id} is not found in rating_df.")
  
  # ログ(任意)
  base_item_title = movies_df[movies_df["movie_id"] == base_item_id]["title"]
  print(base_item_title, "に近い作品を探索します...")

  # 類似度を格納するDataFrameのヘッダーを作成
  item_sim_list = pd.DataFrame(columns=['base_item_id', 'target_item_id', 'similarity'])
  for item_id in rating_df.index:
    # アイテム同士のcos類似度を算出
    similarity = cosine_similarity([rating_df.loc[base_item_id, :]], [rating_df.loc[item_id, :]])
    # 算出したcos類似度をDataFrameに格納する
    new_row = pd.DataFrame([{
        'base_item_id': base_item_id,
        'target_item_id': item_id,
        'similarity': similarity[0][0]
    }])
    item_sim_list = pd.concat([item_sim_list, new_row], ignore_index=True)

  # item_sim_listとitem_master_dfを結合
  item_sim_list_with_title = pd.merge(
      left=item_sim_list,
      right=movies_df,
      left_on="target_item_id",
      right_on="movie_id",
      how="outer"
  )
	
	# 類似度の高い作品を抽出
  recommends_top_ten = item_sim_list_with_title.sort_values(
      by="similarity",
      ascending=False
  ).head(11)[
      ["target_item_id",'title','similarity']
  ]

  print("実行時間:", time.time() - start_time, "sec.")
  return recommends_top_ten

実行します。

# 推薦実行
recommend_similar_item(1580, item_indexed_rating_df, movies_df)

image 5.png

『メン・イン・ブラック』(id: 1580)について最もユーザー評価の近い3作品は『ジュラシックパーク』、『ターミネーター2』『マトリックス』という結果が返ってきました。それなりに納得感のある結果になったのではないでしょうか。

まとめ

今回はユーザー評価傾向を尺度として類似作品を推薦する映画推薦システムを作ってみました。

ユーザー評価を基準とすることである程度近い作品をピックアップすることができました。

しかし、わずか1作品の類似作品を算出するのに10秒も掛かっており、大規模なコンテンツ配信サイトやECサイトなどで運用するのは難しそうです。時間が掛かる原因としては単純にユーザー数分の次元数(6040次元ベクトル)のコサイン類似度計算を全3706個のアイテム数に対して行っているからです。実際に市場にあるアプリのユーザー数はゆうに万を超えるのでスケーラビリティが終わってます。

なんとかユーザー数が増えても処理時間が増えないようにはできないか?

ということで色々調べてみると、計算時の次元数を削減する 「行列分解(Matrix Factorization)」 という手法が有効ではという仮説が浮き上がってきました。

ということで、次回は行列分解を使った推薦システムについて書こうと思います。

参考

7
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
7
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?