5
8

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

Splunkのサーチ結果をIndexに保存して累積結果をチェック!

Last updated at Posted at 2020-03-22

概要

以前の記事Splunk Curl App で Qiita のページview数をチェックしてみたで、curlコマンドを使って、リモートのデータを取得して表示することはできたのですが、この結果はどこにも保存されないため結果の推移がチェックできません

そこで以下の流れで推移をチェックしたいと思います

  1. サーチ結果をIndexに取り込む(追記していくイメージ) 仕組みを追加
  2. サーチをスケジュール設定をして、1日1回実行する
  3. 取り込んだIndexをサーチして推移を確認する

1. サーチ結果をIndexに取り込む(追記していくイメージ) 仕組みを追加

サーチ結果をSplunk内に保存する方法として主に以下の3つがあると思われます

a. CSVファイルへの保存 ( outputcsv / outputlookup などを利用)
b. KV Store への保存 ( outputlookup を利用)
c. Index への保存 (collect を利用)
(*) どの方法も課金対象外なのでご安心をw

今回は Indexへの保存に挑戦してみます。

1-1. Indexへの保存方法

その前に Indexとは Splunk 内にあるデータを保存する先の事で、Index毎にアクセス制御したりデータの保存期間を設定したりできます。今回は新規にIndexを作成して、そこに保存する事にします

利用方法は簡単で2ステップのみ

  1. 保存先の index をあらかじめ作成する
  2. 保存したいサーチの最後に | collect index="作成したindex名" と指定する

collect コマンドが index に保存するためのコマンドになります
collect コマンドにはオプションがありますので、詳細はこちらをご覧ください
https://docs.splunk.com/Documentation/Splunk/latest/SearchReference/Collect

注意) sourcetypeをデフォルトの stash から変更すると、ライセンスの課金対象になります!
通常はcollectコマンドはSummaryIndex というサーチの高速化のための機能です

1-2. 新規 Index の作成

「設定」 - 「インデックス」 - 「新規インデックス作成」 より、" qiita-viewcount" というインデックスを作成します

image.png

1-3. Index にサーチ結果を保存する + 保存時間のフィールドを追加する

最後の行に |collect コマンドを指定している箇所が、前回のサーチに追加した箇所です(これだけ)

| curl  url="https://qiita.com/api/v2/authenticated_user/items?page=1&per_page=100"  headers="{'Authorization': 'Bearer <<取得した Tokenを入力>>'}"  output=text
| makemv delim="rendered_body" reponse 
| mvexpand reponse
| rex field=reponse "\"id\":\"(?<id>[0-9a-z]+)"
| table id
| where isnotnull(id)
| map maxsearches=50 search="| curl  url=\"https://qiita.com/api/v2/items/$id$\" headers=\"{'Authorization': 'Bearer <<取得した Tokenを入力>>'}\"  output=json | table id title created_at page_views_count likes_count"
| collect index=qiita-viewcount 

|collect コマンドはデフォルトで保存した時間を _timeに追加されるのですが、info_min_time が適用されるため、サーチ範囲が 24時間 とかしていると、24時間前の時間が _time に適用されてしまいます。
レポート実行時間とサーチ範囲をうまく調整すればいいのですが、今回は time フィールドをあらかじめ作って対応することにしました。

最後のcollectの前に追加
| eval time = strftime(now(),"%Y/%m/%d:%H:%M")
| table id time title page_views_count likes_count 
| collect index=qiita-viewcount addtime=false

1.4 保存したデータを確認してみる

ちゃんと保存できてるか確認してみましょう
通常のサーチと同じコマンドが利用できます!

image.png

無事に取り込めてますね

2. サーチをスケジュール設定をして、1日1回実行する

それでは、このコマンドをスケジュール実行するように設定しておきます。スケジュール設定のためにはサーチをレポートとして保存し、レポートをスケジュール実行するように設定します。

例えば、今回は毎日 2:00 実行に設定しました。
image.png

完了です

3. 最後に取り込んだIndexをサーチして、推移を確認する

それでは、1週間保存した結果を使って、view の推移をみてみたいと思います

index="qiita-viewcount" 
| eval date=strptime(time,"%Y/%m/%d:%H:%M")
| eval date=strftime(date,"%Y/%m/%d")
| xyseries date title page_views_count

image.png

推移が見えると、色々な事が考察できて楽しいですよね

如何でしたか? collectコマンド。簡単にできて便利な機能です。ただしストレージ容量だけにはご注意を

5
8
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
5
8

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?