概要
以前の記事Splunk Curl App で Qiita のページview数をチェックしてみたで、curlコマンドを使って、リモートのデータを取得して表示することはできたのですが、この結果はどこにも保存されないため結果の推移がチェックできません
そこで以下の流れで推移をチェックしたいと思います
- サーチ結果をIndexに取り込む(追記していくイメージ) 仕組みを追加
- サーチをスケジュール設定をして、1日1回実行する
- 取り込んだIndexをサーチして推移を確認する
1. サーチ結果をIndexに取り込む(追記していくイメージ) 仕組みを追加
サーチ結果をSplunk内に保存する方法として主に以下の3つがあると思われます
a. CSVファイルへの保存 ( outputcsv / outputlookup などを利用)
b. KV Store への保存 ( outputlookup を利用)
c. Index への保存 (collect を利用)
(*) どの方法も課金対象外なのでご安心をw
今回は Indexへの保存に挑戦してみます。
1-1. Indexへの保存方法
その前に Indexとは Splunk 内にあるデータを保存する先の事で、Index毎にアクセス制御したりデータの保存期間を設定したりできます。今回は新規にIndexを作成して、そこに保存する事にします
利用方法は簡単で2ステップのみ
- 保存先の index をあらかじめ作成する
- 保存したいサーチの最後に | collect index="作成したindex名" と指定する
collect コマンドが index に保存するためのコマンドになります
collect コマンドにはオプションがありますので、詳細はこちらをご覧ください
https://docs.splunk.com/Documentation/Splunk/latest/SearchReference/Collect
注意) sourcetypeをデフォルトの stash から変更すると、ライセンスの課金対象になります!
通常はcollectコマンドはSummaryIndex というサーチの高速化のための機能です
1-2. 新規 Index の作成
「設定」 - 「インデックス」 - 「新規インデックス作成」 より、" qiita-viewcount" というインデックスを作成します
1-3. Index にサーチ結果を保存する + 保存時間のフィールドを追加する
最後の行に |collect コマンドを指定している箇所が、前回のサーチに追加した箇所です(これだけ)
| curl url="https://qiita.com/api/v2/authenticated_user/items?page=1&per_page=100" headers="{'Authorization': 'Bearer <<取得した Tokenを入力>>'}" output=text
| makemv delim="rendered_body" reponse
| mvexpand reponse
| rex field=reponse "\"id\":\"(?<id>[0-9a-z]+)"
| table id
| where isnotnull(id)
| map maxsearches=50 search="| curl url=\"https://qiita.com/api/v2/items/$id$\" headers=\"{'Authorization': 'Bearer <<取得した Tokenを入力>>'}\" output=json | table id title created_at page_views_count likes_count"
| collect index=qiita-viewcount
|collect コマンドはデフォルトで保存した時間を _timeに追加されるのですが、info_min_time が適用されるため、サーチ範囲が 24時間 とかしていると、24時間前の時間が _time に適用されてしまいます。
レポート実行時間とサーチ範囲をうまく調整すればいいのですが、今回は time フィールドをあらかじめ作って対応することにしました。
| eval time = strftime(now(),"%Y/%m/%d:%H:%M")
| table id time title page_views_count likes_count
| collect index=qiita-viewcount addtime=false
1.4 保存したデータを確認してみる
ちゃんと保存できてるか確認してみましょう
通常のサーチと同じコマンドが利用できます!
無事に取り込めてますね
2. サーチをスケジュール設定をして、1日1回実行する
それでは、このコマンドをスケジュール実行するように設定しておきます。スケジュール設定のためにはサーチをレポートとして保存し、レポートをスケジュール実行するように設定します。
完了です
3. 最後に取り込んだIndexをサーチして、推移を確認する
それでは、1週間保存した結果を使って、view の推移をみてみたいと思います
index="qiita-viewcount"
| eval date=strptime(time,"%Y/%m/%d:%H:%M")
| eval date=strftime(date,"%Y/%m/%d")
| xyseries date title page_views_count
推移が見えると、色々な事が考察できて楽しいですよね
如何でしたか? collectコマンド。簡単にできて便利な機能です。ただしストレージ容量だけにはご注意を