0
0

日本語の小文字(捨て仮名)を大文字(通常の文字)に変換するLucene/Elasticsearchのフィルター

Last updated at Posted at 2024-08-23

はじめに

Lucene 9.11およびElasticsearch 8.15に日本語の小文字(捨て仮名)を大文字(通常の文字)に変換するフィルターを実装しましたので使い方を紹介します。

以下公式のドキュメントです。

Lucene (Javadoc)

Elasticsearch

概要

日本語のドキュメントを検索するアプリケーションを開発していると、とても古い文書を取り扱うことがあります。例えば:

  • 特許
  • 法律
  • 契約書
  • 文学

そしてある時期の日本語文書では、「ょ」「っ」などの小文字(捨て仮名)の表記が大文字(通常の文字)になっていることがあります。実際に私が見たことのある例で言うと、ある特許文書の中で「ストップウォッチ」が「ストツプウオツチ」と表記されていました。有名な例では企業名の「キヤノン」があげられるかもしれないですね。

当然このような表記のテキストをそのまま「ストップウォッチ」で検索してもヒットしません。したがってどちらでも検索にヒットさせるためには小文字を大文字にノーマライズする必要があります。簡単に思いつく方法としては、入力テキストをMapping character filterで1文字1文字変換する方法がありますが、このフィルターはCharacter filterなのでトークナイズの前に実行されます。そうすると例えばKuromojiでトークナイズしようとした時、大文字に変換された後の単語が辞書に載っておらず、適切なトークナイズが行えないなどの問題が発生する可能性があります。従って、この変換は性質上トークンフィルターとして実装するべきものです。

hiragana_uppercaseとkatakana_uppercase

というわけで、Luceneにhiragana_uppercaseおよびkatakana_uppercaseというトークンフィルターを実装したPRを送って、取り込んでもらいました。Lucene 9.11に取り込まれています。

またこのフィルターはElasticsearchにも取り込まれており、バージョン8.15から利用できます。

このフィルターはKuromojiの一部として実装されています。そのためElasticsearchで利用するためにはJapanese (kuromoji) analysis pluginをインストールする必要があることに注意してください。

また私は利用したことがないのですが、SolrのSudachiプラグインにも取り込まれているようです。(ありがとうございます)

Luceneでの使い方

Luceneのテストコードを参照してください。

Javadocは以下から参照できます。

Elasticsearchでの使い方

Elasticsearchでの使い方は他のフィルターと同様簡単なので、いくつかのサンプルを貼っておきます。

ただし上でも書いている通りJapanese (kuromoji) analysis pluginに依存しているのでこちらのプラグインがインストールされていることが必要になります。

Analyze

Analyze APIで動作を確認してみましょう。

GET /_analyze
{
  "tokenizer": "kuromoji_tokenizer",
  "filter" : ["hiragana_uppercase", "katakana_uppercase"],
  "text" : "ちょっとまって ストップウォッチ"
}

結果は以下のようになります。

{
  "tokens": [
    {
      "token": "ちよつと",
      "start_offset": 0,
      "end_offset": 4,
      "type": "word",
      "position": 0
    },
    {
      "token": "まつ",
      "start_offset": 4,
      "end_offset": 6,
      "type": "word",
      "position": 1
    },
    {
      "token": "て",
      "start_offset": 6,
      "end_offset": 7,
      "type": "word",
      "position": 2
    },
    {
      "token": "ストツプウオツチ",
      "start_offset": 8,
      "end_offset": 16,
      "type": "word",
      "position": 3
    }
  ]
}

正しく捨て仮名が通常の文字に変換されていることがわかります。

インデックス定義例

実際にテキストをインデックスに書き込む際のインデックス定義は、特に細かい設定は必要なく(トークン)フィルターとして指定するだけです。

PUT test_sutegana
{
  "mappings": {
    "properties": {
      "message": {
        "type": "text",
        "analyzer": "japanese_analyzer"
      }
    }
  },
  "settings": {
    "index": {
      "analysis": {
        "analyzer": {
          "japanese_analyzer": {
            "filter": [
              "hiragana_uppercase",
              "katakana_uppercase"
            ],
            "tokenizer": "kuromoji_tokenizer"
          }
        }
      }
    }
  }
}

アイヌ語のための表記

このフィルターを実装していて知ったのですが、日本語表記にはアイヌ語の仮名表記を実現するために、カタカナの捨て仮名に以下のような文字が定義されています。

ァ ィ ゥ ェ ォ ヵ ㇰ ヶ ㇱ ㇲ ッ ㇳ ㇴ ㇵ ㇶ ㇷ ㇷ゚ ㇸ ㇹ ㇺ ャ ュ ョ ㇻ ㇼ ㇽ ㇾ ㇿ ヮ

「ㇳ」以降の文字については知りませんでしたし、「ㇷ゚」なんて特に驚きです。しかもこの「ㇷ゚」については、内部的に2文字で表現されています。

例えば料理の名前に「チタタㇷ゚」というものがあるようですね。勉強になりました。

katakana_uppercaseではこれらの文字もサポートしています。

まとめ

あまり利用する必要があるケースは多くないかもしれませんが、もしも日本語の大文字小文字を区別せずに検索したいという要件がある場合は、このフィルターが役に立ちますのでぜひ利用してください。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0