1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

検索タスクにおけるBM25のコサイン類似度とスコアの精度比較

Last updated at Posted at 2024-10-05

概要

以下の記事の疑問に自分なりに答えを出すために、実際にBM25スコアとBM25ベクトルのコサイン類似度で検索精度にどう違いがあるのか検証しました。

【疑問】BM25でもTFIDF同様にコサイン類似度に基づいてランキングしてよいのか

背景

上記別記事で抱いた疑問の概略は以下です。

  • 検索タスク等において、ランキングの指標として、TFIDFではTFIDF重みベクトルのコサイン類似度を用いるが、BM25ではBM25スコアを用いることが多い
  • BM25スコアはクエリに含まれる単語を検索対象文書におけるその単語のBM25の重みに変換して足し合わせた値である。
  • BM25でもBM25の重みベクトルのコサイン類似度(BM25コサイン類似度)をランキングに用いたらだめなのか?

記事で書いていない内容も含めてもう少し上記の疑問を深堀りします。

BM25スコアは、検索対象文書のBM25重みと、クエリの単語頻度の積和として計算されるため、BM25重みの1次の関数です。
一方で、BM25コサイン類似度は、検索対象文書もクエリもBM25の重みを成分とするベクトルとなるため、BM25重みの2次の関数です。
よって、BM25コサイン類似度のほうが、単語の重要度をより強調するような指標になっているといえます。

例えば、"a","b","c","d"という4種類の単語があるコーパスを考えてみます。
各単語の重みは以下のとおりとします。

weights = {"a": 0.9, "b": 0.1, "c": 0.8, "d": 0.2}

このとき、query = "a b c d"に対する検索対象文書text_a = "a b"およびtext_b = "c d"のBM25スコアおよびコサイン類似度を計算してみます。
BM25スコアは重みの線形な和なので、text_aとtext_bの場合で同じ(どちらも1.0)ですが、コサイン類似度は2次の計算となるため、大きい重みの"a"がより重要視された結果、text_aのほうがtext_bより大きくなります。

query = "a b c d"
text_a = "a b"
text_b = "c d"

weights = {"a": 0.9, "b": 0.1, "c": 0.8, "d": 0.2}

def score(text1,text2):
  tokens1 = text1.split()
  tokens2 = text2.split()
  score = 0
  for token, weight in weights.items():
    if token in tokens1 and token in tokens2:
      score += weight
  return score

def cos_sim(text1, text2):
    tokens1 = text1.split()
    tokens2 = text2.split()
    
    numerator = 0
    for token, weight in weights.items():
        if token in tokens1 and token in tokens2:
            numerator += weight ** 2
    
    denominator1 = sum(weights.get(token, 0) ** 2 * tokens1.count(token) ** 2 for token in tokens1)
    denominator2 = sum(weights.get(token, 0) ** 2 * tokens2.count(token) ** 2 for token in tokens2)
    
    similarity = numerator / ((denominator1 * denominator2) ** 0.5)
    return similarity
  
# Calculate and print scores and cosine similarities
print("Scores:")
print(f"Score between query and text_a: {score(query, text_a)}")
print(f"Score between query and text_b: {score(query, text_b)}")

print("\nCosine Similarities:")
print(f"Cosine similarity between query and text_a: {cos_sim(query, text_a)}")
print(f"Cosine similarity between query and text_b: {cos_sim(query, text_b)}")
Scores:
Score between query and text_a: 1.0
Score between query and text_b: 1.0

Cosine Similarities:
Cosine similarity between query and text_a: 0.7393691004272944
Cosine similarity between query and text_b: 0.6733003292241385

BM25コサイン類似度が単語の重要度をより強調する指標であること自体は、単なる性質なので、検索タスクにおいて、BM25コサイン類似度とBM25スコアのどちらがいいのか、言い換えると、単語の重要度を強調するほうがいいのかしないほうがいいのか、については実験で確かめてみるしかありません。

そこで、BM25スコアとBM25コサイン類似度をはじめ、いくつかのキーワード検索の比較を実施してみます。

条件

以下の条件を比較します。

  • count-count: 単語の頻度ベクトル同士のコサイン類似度
  • count-tfidf: TFIDFスコア。クエリの単語頻度ベクトルと、検索対象文書のTFIDFベクトルの内積。
  • count-bm25: scikit-learnで計算したBM25スコア。クエリの単語頻度ベクトルと、検索対象文書のBM25ベクトルの内積。
  • count-rankbm25: rank_bm25ライブラリで計算したBM25スコア。クエリの単語頻度ベクトルと、検索対象文書のBM25ベクトルの内積。
  • tfidf-tfidf: TFIDFベクトル同士のコサイン類似度。
  • bm25-bm25: scikit-learnで計算したBM25ベクトル同士のコサイン類似度。
  • rankbm25-rankbm25: rank_bm25ライブラリで計算したBM25ベクトル同士のコサイン類似度。

条件設定の意図は次のとおりです。

  • キーワード検索の代表的な方法であるカウント、TFIDF、BM25を比較
  • それぞれの方法について、スコアとコサイン類似度の差を見たい。ただしカウントは重みの概念がないため1条件のみ
  • bm25はライブラリが異なっても傾向があるか見ておきたい。scikit-learnベースのものと、rank_bm25を比較(ちなみにTFIDFの計算はtfidfを使用)

また、コーパスが小規模(数千件)と大規模(10万件)でそれぞれ比較します。

実装

検索コーパス

検索精度を評価するためのコーパスを準備します。
miraclの日本語データセット、devスプリットを使います。

miraclをダウンロードするため、huggingfaceのアクセストークンを取得し、環境変数ファイルに記載します。

.env
HF_ACCESS_TOKEN="トークン"

miraclのコーパスとクエリをダウンロードします。

import os
import dotenv
import datasets
dotenv.load_dotenv()

docs = datasets.load_dataset('miracl/miracl-corpus', "ja")
queries = datasets.load_dataset("miracl/miracl", "ja", token = os.environ["HF_ACCESS_TOKEN"], split="dev")

クエリとコーパスから必要な情報を取得します。

  • positive_id_set: クエリの正解となる文書idの集合。検索対象コーパスの作成に使用。
  • query_texts: クエリのテキスト
  • query_positive_ids: クエリごとの正解idのリスト
positive_id_set = set()
query_texts = []
query_positive_ids = []

for data in queries:
  query_id = data['query_id']
  query = data['query']
  positive_passages = data['positive_passages']
  negative_passages = data['negative_passages']
  
  query_texts.append(query)
  query_positive_ids.append([entry["docid"] for entry in positive_passages])
  
  for entry in positive_passages:
    docid = entry['docid']
    title = entry['title']
    text = entry['text']
    if docid not in positive_id_set:
      positive_id_set.add(docid)

正解文書とそれ以外にcorpusを分けます。後ほど最終的に評価に用いるコーパスを作成するときに、確実に正解文書が含まれるようにしつつコーパスサイズの調整を容易にするためです。

# Filter the documents based on corpus_ids
positive_docs = docs['train'].filter(lambda example: example['docid'] in positive_id_set)
docs_without_positive = docs['train'].filter(lambda example: example['docid'] not in positive_id_set)

分かち書き関数

日本語テキストを分かち書きするための関数を作成しておきます。

import MeCab
mecab = MeCab.Tagger('-Owakati')
def tokenize(text: str):
  return mecab.parse(text).strip()

rank_bm25の拡張

rank_bm25はBM25の文章を重みベクトルに変換するメソッドをもたないので、rank_bm25を拡張して自作します。
rank_bm25のBM25Okapiを継承したクラスをつくり、以下の変更を実施しています。

  • __init__の変更: transformメソッド等で使用するプラパティを保存するようにしています。
  • transformメソッド追加: クエリをBM25の重みベクトルに変換します。
  • count_transformメソッド追加: クエリを単語頻度ベクトルに変換します。scikit-learnのCountVectorizerでも同様の処理ができますが、vocabularyを同じにするのが手間だったので、rank_bm25側でも実装することにしました。
from rank_bm25 import BM25Okapi
import scipy
import numpy as np

class ExtendedBM25Okapi(BM25Okapi):
    def __init__(self, corpus, tokenizer=None, k1=1.5, b=0.75, epsilon=0.25):
        super().__init__(corpus, tokenizer=tokenizer, k1=k1, b=b, epsilon=epsilon)
        
        self.vocabulary = list(self.idf.keys())
        self.word_to_id = {word: i for i, word in enumerate(self.vocabulary)}
    
    def transform(self, queries: list[list[str]]) -> scipy.sparse.csr_matrix:
        from scipy.sparse import csr_matrix
        
        rows = []
        cols = []
        data = []
        
        for i, query in enumerate(queries):
            query_len = len(query)
            
            for word in set(query):
                if word in self.word_to_id:
                    word_id = self.word_to_id[word]
                    tf = query.count(word)
                    idf = self.idf.get(word, 0)
                    
                    # BM25 scoring formula
                    numerator = idf * tf * (self.k1 + 1)
                    denominator = tf + self.k1 * (1 - self.b + self.b * query_len / self.avgdl)
                    
                    score = numerator / denominator
                    
                    rows.append(i)
                    cols.append(word_id)
                    data.append(score)
        
        return csr_matrix((data, (rows, cols)), shape=(len(queries), len(self.vocabulary)))
    def count_transform(self, queries: list[list[str]]) -> scipy.sparse.csr_matrix:
        from scipy.sparse import csr_matrix
        
        rows = []
        cols = []
        data = []
        
        for i, query in enumerate(queries):
            for word in query:
                if word in self.word_to_id:
                    word_id = self.word_to_id[word]
                    rows.append(i)
                    cols.append(word_id)
                    data.append(1)  # Count is always 1 for each occurrence
        
        return csr_matrix((data, (rows, cols)), shape=(len(queries), len(self.vocabulary)))

ExtendedBM25の処理の検算

ExpectedBM25のtransformが正しく実装できてるか確認するために、rank_bm25がもともともっているget_scores関数の戻り値と、比較します。

positive_texts_tokenized = list(map(lambda x: tokenize(x).split(), positive_docs['text']))
query_texts_tokenized = list(map(lambda x: tokenize(x).split(), query_texts))


original_bm25 = BM25Okapi(positive_texts_tokenized)
extended_bm25 = ExtendedBM25Okapi(positive_texts_tokenized)

original_scores = []
for query in query_texts_tokenized:
  scores = original_bm25.get_scores(query)
  original_scores.append(scores)

extended_corpus_vectors = extended_bm25.transform(positive_texts_tokenized)
extended_count_query_vectors = extended_bm25.count_transform(query_texts_tokenized)
extended_scores = extended_count_query_vectors.dot(extended_corpus_vectors.T)

# Convert lists to numpy arrays for easier manipulation
original_scores_array = np.array(original_scores)
extended_scores_array = extended_scores

# Calculate the difference between extended and original scores
score_difference = extended_scores_array - original_scores_array

# Calculate statistics
mean_difference = np.mean(score_difference)
std_difference = np.std(score_difference)
max_difference = np.max(score_difference)
min_difference = np.min(score_difference)

print(f"Mean difference: {mean_difference}")
print(f"Standard deviation of difference: {std_difference}")
print(f"Max difference: {max_difference}")
print(f"Min difference: {min_difference}")

# Calculate correlation
correlation = np.corrcoef(original_scores_array.flatten(), extended_scores_array.toarray().flatten())[0, 1]
print(f"Correlation between original and extended scores: {correlation}")
Mean difference: -6.688436291558274e-16
Standard deviation of difference: 1.2349400906308533e-15
Max difference: 2.1316282072803006e-14
Min difference: -1.4210854715202004e-14
Correlation between original and extended scores: 1.0

ほぼ0に近い差なので、うまく計算できていそうです。丸め誤差はあるので、完全なゼロにはならないと思われます。

検索スコアの計算

比較用関数

各種比較を実施し、検索精度を出力する関数を作ります。
処理の流れはだいたい以下のような感じです。

  • 入力として、スペースで分かち書きされたテキスト(corpus_texts_tokenized)とそのdocid(corpus_ids)、スペースで分かち書きされたクエリのテキスト(query_texts_tokenized)、クエリごとの正解文書のdocid(query_positive_ids)を受け取ります。
  • CountVectorizer, TfidfVectorizer, BM25Vectorizer、RankBM25Vectorizerを初期化し、corpusでfitします。BM25Vectorizerはnocchi1さんが作成したscikit-learnベースのBM25Vectorizerを使います。その後、コーパス、クエリを各ベクトライザでベクトル化した行列をえます。
  • 比較条件となる指標での検索結果文書ランキングを作成します。
  • ランキングからhit_at_nを計算します。hit_at_nは上位n件に一つ以上の正解が含まれたクエリの割合です。
from sklearn.feature_extraction.text import CountVectorizer,TfidfVectorizer
from bm25 import BM25Vectorizer
from sklearn.metrics.pairwise import cosine_similarity

def eval_corpus(corpus_texts_tokenized: list[str], corpus_ids: list[str], query_texts_tokenized: list[str], query_positive_ids: list[list])->dict:
    """
    Evaluate the performance of different vectorization and similarity methods on a corpus.

    This function takes a corpus of texts, query texts, and their corresponding IDs, and evaluates
    the performance of various vectorization and similarity calculation methods using Hit@N metric.

    Parameters:
    - corpus_texts_tokenized (list[str]): List of tokenized corpus texts
    - corpus_ids (list[str]): List of corpus document IDs
    - query_texts_tokenized (list[str]): List of tokenized query texts
    - query_positive_ids (list[list]): List of lists containing positive document IDs for each query

    Returns:
    - dict: A dictionary containing Hit@N scores for different vectorization and similarity methods,
            where N is 1, 3, 5, and 10.
    """

    # Initialize vectorizers
    count_vectorizer = CountVectorizer()
    tfidf_vectorizer = TfidfVectorizer()
    bm25_vectorizer = BM25Vectorizer()
    rankbm25_vectorizer = ExtendedBM25Okapi([doc.split() for doc in corpus_texts_tokenized], k1=1.2)

    # Transform corpus texts
    count_corpus_vectors = count_vectorizer.fit_transform(corpus_texts_tokenized)
    tfidf_corpus_vectors = tfidf_vectorizer.fit_transform(corpus_texts_tokenized)
    bm25_corpus_vectors = bm25_vectorizer.fit_transform(corpus_texts_tokenized)
    rankbm25_corpus_vectors = rankbm25_vectorizer.transform([doc.split() for doc in corpus_texts_tokenized])

    # Transform query texts
    count_query_vectors = count_vectorizer.transform(query_texts_tokenized)
    tfidf_query_vectors = tfidf_vectorizer.transform(query_texts_tokenized)
    bm25_query_vectors = bm25_vectorizer.transform(query_texts_tokenized)
    rankbm25_query_vectors = rankbm25_vectorizer.transform([doc.split() for doc in query_texts_tokenized])
    rankbm25_count_query_vectors = rankbm25_vectorizer.count_transform([doc.split() for doc in query_texts_tokenized])

    # Calculate similarity matrices
    count_count_cosine_sim = cosine_similarity(count_query_vectors, count_corpus_vectors)
    count_tfidf_dot_product = count_query_vectors.dot(tfidf_corpus_vectors.T).toarray()
    count_bm25_dot_product = count_query_vectors.dot(bm25_corpus_vectors.T).toarray()
    count_rankbm25_dot_product = rankbm25_count_query_vectors.dot(rankbm25_corpus_vectors.T).toarray()
    tfidf_tfidf_cosine_sim = cosine_similarity(tfidf_query_vectors, tfidf_corpus_vectors)
    bm25_bm25_cosine_sim = cosine_similarity(bm25_query_vectors, bm25_corpus_vectors)
    rankbm25_rankbm25_cosine_sim = cosine_similarity(rankbm25_query_vectors, rankbm25_corpus_vectors)

    # Calculate rankings
    count_count_rank = count_count_cosine_sim.argsort(axis=1)[:, ::-1]
    count_tfidf_rank = count_tfidf_dot_product.argsort(axis=1)[:, ::-1]
    count_bm25_rank = count_bm25_dot_product.argsort(axis=1)[:, ::-1]
    count_rankbm25_rank = count_rankbm25_dot_product.argsort(axis=1)[:, ::-1]
    tfidf_tfidf_rank = tfidf_tfidf_cosine_sim.argsort(axis=1)[:, ::-1]
    bm25_bm25_rank = bm25_bm25_cosine_sim.argsort(axis=1)[:, ::-1]
    rankbm25_rankbm25_rank = rankbm25_rankbm25_cosine_sim.argsort(axis=1)[:, ::-1]

    # Function to calculate hit@n
    def count_hit_at_n(rank_matrix, query_positive_ids, corpus_ids, n=3):
        hit_at_n = 0
        for i, pos_ids in enumerate(query_positive_ids):
            top_n_indices = rank_matrix[i][:n]
            top_n_docids = [corpus_ids[idx] for idx in top_n_indices]
            if any(docid in pos_ids for docid in top_n_docids):
                hit_at_n += 1
        return hit_at_n / len(query_positive_ids)

    # Calculate hit@n for different n values (1, 3, 5, 10)
    n_values = [1, 3, 5, 10]
    hit_at_ns = {}

    for n in n_values:
        hit_at_ns[n] = {
            "Count-Count": count_hit_at_n(count_count_rank, query_positive_ids, corpus_ids, n=n),
            "Count-TFIDF": count_hit_at_n(count_tfidf_rank, query_positive_ids, corpus_ids, n=n),
            "Count-BM25": count_hit_at_n(count_bm25_rank, query_positive_ids, corpus_ids, n=n),
            "Count-RankBM25": count_hit_at_n(count_rankbm25_rank, query_positive_ids, corpus_ids, n=n),
            "TFIDF-TFIDF": count_hit_at_n(tfidf_tfidf_rank, query_positive_ids, corpus_ids, n=n),
            "BM25-BM25": count_hit_at_n(bm25_bm25_rank, query_positive_ids, corpus_ids, n=n),
            "RankBM25-RankBM25": count_hit_at_n(rankbm25_rankbm25_rank, query_positive_ids, corpus_ids, n=n)
        }

        # Print results for each n
        print(f"Hit@{n}: Count-Count: {hit_at_ns[n]['Count-Count']:.4f}, Count-TFIDF: {hit_at_ns[n]['Count-TFIDF']:.4f}, Count-BM25: {hit_at_ns[n]['Count-BM25']:.4f}, Count-RankBM25: {hit_at_ns[n]['Count-RankBM25']:.4f}, TFIDF-TFIDF: {hit_at_ns[n]['TFIDF-TFIDF']:.4f}, BM25-BM25: {hit_at_ns[n]['BM25-BM25']:.4f}, RankBM25-RankBM25: {hit_at_ns[n]['RankBM25-RankBM25']:.4f}")
    
    return hit_at_ns

小規模コーパス

まず小規模なコーパスで実験します。
ここではクエリのいずれかの正解となる文書のみで構成された最小サイズのコーパスを小規模コーパスとします。

# positive_corpus
positive_texts_tokenized = list(map(tokenize, positive_docs['text']))
positive_ids = positive_docs['docid']
query_texts_tokenized = list(map(tokenize, query_texts))
eval_corpus(positive_texts_tokenized, positive_ids, query_texts_tokenized, query_positive_ids)
Hit@1: Count-Count: 0.6419, Count-TFIDF: 0.7256, Count-BM25: 0.7570, Count-RankBM25: 0.7988, TFIDF-TFIDF: 0.7581, BM25-BM25: 0.7802, RankBM25-RankBM25: 0.7814
Hit@3: Count-Count: 0.7733, Count-TFIDF: 0.8337, Count-BM25: 0.8570, Count-RankBM25: 0.8791, TFIDF-TFIDF: 0.8523, BM25-BM25: 0.8733, RankBM25-RankBM25: 0.8860
Hit@5: Count-Count: 0.8116, Count-TFIDF: 0.8605, Count-BM25: 0.8826, Count-RankBM25: 0.8919, TFIDF-TFIDF: 0.8884, BM25-BM25: 0.8988, RankBM25-RankBM25: 0.9070
Hit@10: Count-Count: 0.8616, Count-TFIDF: 0.8965, Count-BM25: 0.9128, Count-RankBM25: 0.9151, TFIDF-TFIDF: 0.9128, BM25-BM25: 0.9198, RankBM25-RankBM25: 0.9244

大規模コーパス

大規模コーパスはdocs_without_positiveから追加で10万件取得して、検索対象コーパスとします。

# large corpus
additional_docs_size = 100000
additional_docs = docs_without_positive.select(range(additional_docs_size))

additional_texts_tokenized = list(map(tokenize, additional_docs['text']))
additional_ids = additional_docs['docid']

corpus_texts_tokenized = positive_texts_tokenized + additional_texts_tokenized
corpus_ids = positive_ids + additional_ids

eval_corpus(corpus_texts_tokenized, corpus_ids, query_texts_tokenized, query_positive_ids)
Hit@1: Count-Count: 0.2477, Count-TFIDF: 0.2953, Count-BM25: 0.1616, Count-RankBM25: 0.5628, TFIDF-TFIDF: 0.4151, BM25-BM25: 0.3395, RankBM25-RankBM25: 0.3581
Hit@3: Count-Count: 0.3884, Count-TFIDF: 0.4593, Count-BM25: 0.3547, Count-RankBM25: 0.7244, TFIDF-TFIDF: 0.6047, BM25-BM25: 0.5477, RankBM25-RankBM25: 0.5733
Hit@5: Count-Count: 0.4593, Count-TFIDF: 0.5291, Count-BM25: 0.4465, Count-RankBM25: 0.7616, TFIDF-TFIDF: 0.6651, BM25-BM25: 0.6279, RankBM25-RankBM25: 0.6663
Hit@10: Count-Count: 0.5395, Count-TFIDF: 0.6488, Count-BM25: 0.5977, Count-RankBM25: 0.8035, TFIDF-TFIDF: 0.7337, BM25-BM25: 0.7128, RankBM25-RankBM25: 0.7523

結果

検索精度の比較を整理して再掲します。

小規模コーパスでの結果

Hit@N Count-Count Count-TFIDF Count-BM25 Count-RankBM25 TFIDF-TFIDF BM25-BM25 RankBM25-RankBM25
1 0.6419 0.7256 0.7570 0.7988 0.7581 0.7802 0.7814
3 0.7733 0.8337 0.8570 0.8791 0.8523 0.8733 0.8860
5 0.8116 0.8605 0.8826 0.8919 0.8884 0.8988 0.9070
10 0.8616 0.8965 0.9128 0.9151 0.9128 0.9198 0.9244

大規模コーパスでの結果

Hit@N Count-Count Count-TFIDF Count-BM25 Count-RankBM25 TFIDF-TFIDF BM25-BM25 RankBM25-RankBM25
1 0.2477 0.2953 0.1616 0.5628 0.4151 0.3395 0.3581
3 0.3884 0.4593 0.3547 0.7244 0.6047 0.5477 0.5733
5 0.4593 0.5291 0.4465 0.7616 0.6651 0.6279 0.6663
10 0.5395 0.6488 0.5977 0.8035 0.7337 0.7128 0.7523

BM25関連の結果の抜粋

考察しやすいように、BM25関連の結果を抜粋します。
どちらかというと平均的な傾向に近いことが期待される大規模コーパスの結果から抜粋します。

Hit@N scikit-learn rank-bm25
スコア
1 0.1616 0.5628
3 0.3547 0.7244
5 0.4465 0.7616
10 0.5977 0.8035
コサイン類似度
1 0.3395 0.3581
3 0.5477 0.5733
5 0.6279 0.6663
10 0.7128 0.7523

考察

いろんな要因によって結果が異なっており、まだ結論は出しにくいです。
大規模版のほうが平均的な結果に近いと思われますので、そちらを中心に見ていきます。

BM25について、scikit-learn版はコサイン類似度のほうが、rank_bm25版はBM25スコアのほうが精度が高いです。全体で見ると、rank_bm25のBM25スコアが最もスコアが良いです。逆に、scikit-learnのBM25スコアはスコアが低すぎる用に見えます(TFIDFに負けて、Countなみに低い)

scikit-learnとrank_bm25で基本的なロジックは大差ないと思うのですが、なぜここまで傾向が違うのかわかりません。どちらかというと、rank_bm25のほうがシンプルな実装をしており、scikit-learnのBM25Vectorizerは、低頻度語のフィルタリングなど、いろいろ気の利いた処理が入っていそうなので、そのあたりをもう少し精査したほうがよさそうです。

検索評価に利用したmiraclコーパスの特性も影響しているかもしれないので、もう少し幅広いデータセットで一貫した傾向があるか調査するのも有益と思われます。

おわりに

一応、以下のように結果をまとめておきます。

  • BM25検索においてスコアとコサイン類似度のどちらがいいのかは、なんともいえない。逆に言うと、はっきりどっちがいい、ということは今のところないので、好きな方法を使えば良い。
  • ライブラリによっても差が出る。今回の結果だけに基づくなら、rank-bm25のBM25スコアが最も良さそう。ただし、検索評価に用いるデータセットによって結果が変わる可能性はある。
  • 今後の課題として、scikit-learnが暗黙のうちにやっている処理を理解し、rank-bm25と結果が異なる理由を探りたい。また、多様なデータセットで検証し、BM25スコアとコサイン類似度の使い分け方について知見を深めたい。
1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?