Qiita Teams that are logged in
You are not logged in to any team

Log in to Qiita Team
Community
OrganizationAdvent CalendarQiitadon (β)
Service
Qiita JobsQiita ZineQiita Blog
Help us understand the problem. What is going on with this article?

Groongaで学ぶ全文検索 2016-2-12 に参加しました

More than 5 years have passed since last update.

Groongaで学ぶ全文検索 2016-2-12に参加しました。3回目の参加です。

今回は、参加者の@yamamaijpさんが試しにGroongaを使ってみたということで、その設計をレビューしようという話になりました。というわけで、今回のテーマは 「実例を基にしたGroongaの設計」です。

勉強会が終わった後に実際に自分でコマンドをたたいて復習してみました。ここではその時のことも補足でかきたいと思います。

まずはじめに考えたこと

用途を決める

  • 今回は「国立国会図書館の蔵書を検索する」というものでした。

返ってきてほしいものを決める

  • 本のタイトルを返したい

検索したいものを決める

  • タイトル、著者名で検索したい

テーブル名を決める

  • テーブル名は「Books」

検索したいもののカラムを決める

  • タイトルは「title」、著者は「author」とします

まずはじめに考えることってすごくシンプルなんだなと感じました。
ここまで考えたらコマンドをたたいていくのですが、流れはこんなかんじです。

  • データをjson形式で準備する
  • Groongaをインストールする
  • データベースを作成する
  • データを入れるテーブルを作成する
  • データを入れるテーブルのカラムを作成する
  • データをロードする
  • 試しに検索してみる(転置インデックス作成前)
  • 転置インデックス用テーブルを作成する
  • 転置インデックス用テーブルのカラムを作成する
  • もっかい検索してみる(転置インデックス作成後)

では次からいっこずつみていきましょう。

データをjson形式で準備する

  • 公開されているデータ(tsv形式)を取得

  • tsvデータの内容はこんな感じです。
    NDLサーチ書誌詳細画面URL ISBN セットISBN ISSN ISSN-L DOI NDLJP タイトル 巻次・部編番号 部編名 別タイトル シリーズタイトル 版 著者 出版者 出版地 出版年月日(W3CDTF形式) 受理日(W3CDTF形式) 目次 注記 言語(ISO639-2形式) 大きさ、容量等 記録形式(IMT形式) 掲載誌名 掲載巻 掲載号 掲載通号 提供元書誌詳細画面のURL 一次資料へのリンクURL 原資料へのリンク 関連資料 異版を持つ 掲載誌情報 目次・記事 別の記録形式である 別の記録形式を持つ

  • 参加者 @yamamaijpさんはtsvをjsonに変換するスクリプトをPHPで自作!

  • かっこいい!

  • と思いつつ、私は自作せず、、、先輩がgoでかいたスクリプト(ukitiyan/tsvToJson)を使わせてもらいました(^▽^)

  • とりあえず準備OK。

Groongaをインストールする

ここに関しては、自分の環境で実行したコマンドをのせておきます。
今回は使わないけど、とりあえず--with-mecabつけてます。環境はMacOSXです。

brew install groonga --with-mecab

あれ、でも動かない。brewが入っていませんでした。
そこで先輩が教えてくれたHomebrewを入れて再度実行。無事成功しました。
ついにGroonga入りました!これだけでちょっとうれしい。。

データベースを作成する

$ mkdir /tmp/groonga-databases/
$ groonga -n /tmp/groonga-databases/introduction.db

ここに関しても自分でやったこと書いてます。ドキュメントを参考にデータベースを作成しました。
このコマンド入力後対話モードになります。以下対話モードでコマンド入力していきます。

データを入れるテーブルを作成する

table_create --name Books --flags TABLE_HASH_KEY --key_type ShortText

  • table_create:テーブル作成コマンドです。
  • --name:テーブル名を指定します。これは必須です。
  • --flags:テーブルの種類を指定します。
  • --key_type:キーのを指定します。

--flagsに何を指定するかですが、
Groongaには4種類テーブルが提供されており、用途によって使い分けます。
ここではTABLE_HASH_KEYを指定してますが、キーでレコードを検索しないのであれば、
キーをサポートしないTABLE_NO_KEYの方が適切ということでした。
こちらの方が小さくて早いテーブルだそうです。ちなみにキーをサポートしないのはTABLE_NO_KEYだけです。

--key_typeに関してですが、今回はURLをキーを選択しており、
通常だと4Kを超えないだろうということで適切であるという話でした。

データを入れるテーブルのカラムを作成する

column_create Books title --flags COLUMN_SCALAR --type ShortText
column_create Books author --flags COLUMN_SCALAR --type ShortText

  • column_createコマンドで作成します。直後にテーブル名、カラム名を入力しています。
  • --flagsにはカラムの種類を指定します。
  • --typeにはカラムの型を指定します。

カラムの種類は「scalar」、「vecter」、「index」の3つです。

カラムの種類
・scalar:データを格納するカラム。値を1つのみ格納できる。
・vecter:データを格納するカラム。値を複数格納できる。(配列みたいなイメージ)
・index:転置インデックステーブルのカラム等に指定使用する。

1つの本に対して本のタイトルは1つなのでtitlescalarを指定するのは適切です。
一方著者は複数いる場合もあるのでauthorvecterでもいいと考えられますが、
今回のデータでは著者が複数のケースはないようなのでOKでした。

データをロードする

load --table Books [json]

対話モードだと[json]にjsonにしたデータを貼付ければloadできますが、
今回はjsonファイルを読み込みたいので準備しておいたjsonファイルの1行目に
load --table Booksを追記し、いったん対話モードを終了して以下コマンドを実行しました。

groonga /tmp/groonga-databases2/introduction.db < /tmp/groonga-databases2/data2.json

無事loadできました!
ちなみにjsonの中身はこんなかんじです。

load --table Books3
[
{"_key":"http://iss.ndl.go.jp/books/R100000040-I000322695-00", "title":"次世代高
速通信用分散補償ファイバグレーティング", "author":"フジクラ"},...
]

試しに検索してみる(転置インデックス作成前)

select --table Books --query title:@日本酒

  • selectコマンドで検索します。このコマンドはどうやら重要らしいのでおいおい勉強していきたいです。
  • --tableにテーブルを指定します。
  • --queryには検索条件を指定します。
  • 上記コマンドの場合、Booksテーブルのtitleカラムを「日本酒」で全文検索するという意味になります。
  • @があると全文検索をするという宣言になるそうです。ないと完全一致になります。
  • 全レコード数は34.9万件の状態です。
  • 転置インデックス作成前なのでフルスキャンとなりますが0.6秒という結果。
  • なくても早いんですよ〜(ニコニコ)と須藤さん。すてきです!

転置インデックス用テーブルを作成

table_create --name Indexes --flags TABLE_PAT_KEY --key_type ShortText --default_tokenizer TokenBigram --normalizer NormalizerAuto

  • --flags:テーブルの種類を指定します。
  • --key_type:キーの型を指定します。
  • --default_tokenizer:トークナイズ方法を指定します。
  • --normalizer:ノーマライズ方法を指定します。

default_tokenizer
--default_tokenizerには検索時の検索キーワードとデータロード時のトークナイズ方法を指定します。何を指定すればいいかというのは用途によります。今回はTokenBigramを指定おり、以下の理由で適切と考えられます。

  • 本のタイトルというのは普通の文章と比べてインパクト重視で考えられていたりするので、単語に分けるのが難しい
  • 検索漏れがない方がユーザーにとってはいいと思われる  

あれ、ちょっとまて。1文字で検索したくなることがありそう。。(「酒」で検索したい。。)それはできるのか?という疑問もでました。

1文字で検索したいけどバイグラムでできるのか?
 --flagsTABLE_PAT_KEYを指定すれば前方一致ができるのでそれで実現可能というこです。(TABLE_HASH_KEYを選択した場合は不可。)今回は--flagsTABLE_PAT_KEYを指定しているのでOKでした。ちなみに、1文字で検索したいというニーズは後方一致でも実現できますが、後方一致はコストが高く難しいため、Groongaでは前方一致を採用しているそうです。

転置インデックス用テーブルのカラムを作成 

column_create --table Indexes --name book_title --flags COLUMN_INDEX|WITH_POSITION --type Bookes --source title

  • --table:どのインデックステーブルのカラムであるかを指定します。
  • --name:作成するカラムの名前を指定します。
  • --flags:格納方法を指定します。
  • --type:どのテーブルのインデックスかを指定します。
  • --source:どのカラムのデータであるかを指定します。

COLUMN_INDEX
インデックスカラムの作成を指示します。

WITH_POSITION
インデックスを使用する際、検索する文字が隣あっているかどうかをみるためのpositonを保持することができます。これによってフレーズ検索が可能になります。つけないと意図しない検索結果がたくさん混じってしまうのでつけるべしです。
 
source
どのカラムのデータのことかを指定します。複数指定することも可能です。複数指定したい場合はWITH_SECTIONもつける必要があります。

ちなみにデータをロードするときもインデックスのsourceを使っている。ロードするときにこのカラムをsourceに使っているやつはないかな?と見に行って、あった場合にインデックスにトークナイズして入れているそうです。だからただデータをロードしただけなのに早くなったぞ!ってなったりします。

WITH_SECTION
対象のカラムが複数だとデータがどのカラムに格納されているものかわからないので、カラムにセクションIDを持たせます。WITH_SECTIONを指定することでセクションIDを保持する領域が確保されます。検索時は対象外のセクションIDのデータを無視します。

もっかい検索してみる(転置インデックス作成後)

select --table Books --query title:@日本酒

  • 検索結果は同じだったので正しく検索できているといえる。
  • 速度は20倍に!!転置インデックスの威力を感じました。

まとめ

  • 実践をもとに学ぶのはいざ使うときのイメージをつかめるし、すごくいい勉強法だと感じました。
  • 須藤さんが教えてくれたドキュメント「グルンガの紹介」をみて自分がGroongaのことを全然知らないことがわかりました。これをもっとちゃんと理解したい。。
  • 盛りだくさんでまとめられないよう。。と思っていたのですが先輩に「コマンドたたけばいいですよ」と言われたので、実際にたたいてみました。
  • @yamamaijpさんのをまねてコマンド打っただけですが、それなりに躓いたり、あわせてドキュメント読んだりしたので身になりました!
  • 今回は3時間コースでしたがあっという間でした!たのしかった〜。今回もありがとうございました!
shira_
toreta
飲食店向け予約/顧客台帳サービス「トレタ」、超直前予約アプリ「トレタnow」を開発・提供するスタートアップ企業です。
https://corp.toreta.in
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away