74
74

More than 5 years have passed since last update.

Logstashとは

Elastic社が提供するオープンソースのデータ収集エンジン。
リアルタイムのパイプライン処理で異なる種類のデータを統一的なフォーマットへ変換して任意の転送先へ送ることができる。
用途としては、下流の分析処理やビジュアライズ処理に渡すためにデータをクレンジンしたり民主化したりするのに使われる。

Logstashのパイプラインはinput(必須)とoutput(必須)、そしてfilter(任意)の3つの要素で構成される。
inputでデータソースのデータを消費し、それをfilterで加工し、outputで転送先へ出力するという流れ。

Dockerでの起動

まずはお試しで起動してみる。

officialイメージは非推奨らしいので、Elastic社のリポジトリからDockerイメージをpullする。

Elastic社のサイトにはバージョン5.6.1のコマンドが載っているが、Error: image logstash/logstash:5.6.1 not foundのエラーが出たので、5.6.0にしてみたらできた。

$ docker pull docker.elastic.co/logstash/logstash:5.6.0

コンテナを起動する。

$ docker run --rm -it docker.elastic.co/logstash/logstash:5.6.0

エラーになった。
そもそも起動していないElasticSearchへのヘルスチェックで失敗しているっぽい?

[2017-09-16T12:53:21,180][INFO ][logstash.outputs.elasticsearch] Elasticsearch pool URLs updated {:changes=>{:removed=>[], :added=>[http://logstash_system:xxxxxx@elasticsearch:9200/]}}
[2017-09-16T12:53:21,182][INFO ][logstash.outputs.elasticsearch] Running health check to see if an Elasticsearch connection is working {:healthcheck_url=>http://logstash_system:xxxxxx@elasticsearch:9200/, :path=>"/"}
[2017-09-16T12:53:21,390][WARN ][logstash.outputs.elasticsearch] Attempted to resurrect connection to dead ES instance, but got an error. {:url=>"http://logstash_system:xxxxxx@elasticsearch:9200/", :error_type=>LogStash::Outputs::ElasticSearch::HttpClient::Pool::HostUnreachableError, :error=>"Elasticsearch Unreachable: [http://logstash_system:xxxxxx@elasticsearch:9200/][Manticore::ResolutionFailure] elasticsearch: Name or service not known"}
[2017-09-16T12:53:21,391][INFO ][logstash.outputs.elasticsearch] New Elasticsearch output {:class=>"LogStash::Outputs::ElasticSearch", :hosts=>["http://elasticsearch:9200"]}

これは、コンテナに環境変数XPACK_MONITORING_ENABLED=falseを定義すれば解決する。

$ sudo docker run --rm -it -e XPACK_MONITORING_ENABLED=false docker.elastic.co/logstash/logstash:5.6.0
2017/09/16 12:56:01 Setting 'xpack.monitoring.enabled' from environment.
Sending Logstash's logs to /usr/share/logstash/logs which is now configured via log4j2.properties
[2017-09-16T12:56:11,121][INFO ][logstash.modules.scaffold] Initializing module {:module_name=>"fb_apache", :directory=>"/usr/share/logstash/modules/fb_apache/configuration"}
[2017-09-16T12:56:11,125][INFO ][logstash.modules.scaffold] Initializing module {:module_name=>"netflow", :directory=>"/usr/share/logstash/modules/netflow/configuration"}
[2017-09-16T12:56:11,142][INFO ][logstash.modules.scaffold] Initializing module {:module_name=>"arcsight", :directory=>"/usr/share/logstash/vendor/bundle/jruby/1.9/gems/x-pack-5.6.0-java/modules/arcsight/configuration"}
[2017-09-16T12:56:11,148][INFO ][logstash.setting.writabledirectory] Creating directory {:setting=>"path.queue", :path=>"/usr/share/logstash/data/queue"}
[2017-09-16T12:56:11,149][INFO ][logstash.setting.writabledirectory] Creating directory {:setting=>"path.dead_letter_queue", :path=>"/usr/share/logstash/data/dead_letter_queue"}
[2017-09-16T12:56:11,189][INFO ][logstash.agent           ] No persistent UUID file found. Generating new UUID {:uuid=>"262028fc-f463-4f67-9cad-66056c1b993c", :path=>"/usr/share/logstash/data/uuid"}
[2017-09-16T12:56:11,528][INFO ][logstash.pipeline        ] Starting pipeline {"id"=>"main", "pipeline.workers"=>4, "pipeline.batch.size"=>125, "pipeline.batch.delay"=>5, "pipeline.max_inflight"=>500}
[2017-09-16T12:56:11,979][INFO ][logstash.inputs.beats    ] Beats inputs: Starting input listener {:address=>"0.0.0.0:5044"}
[2017-09-16T12:56:12,014][INFO ][logstash.pipeline        ] Pipeline main started
[2017-09-16T12:56:12,022][INFO ][org.logstash.beats.Server] Starting server on port: 5044
[2017-09-16T12:56:12,085][INFO ][logstash.agent           ] Successfully started Logstash API endpoint {:port=>9600}

動作確認として、~/pipelineというディレクトリを作り、その中にsimple.confというファイル名で↓の内容を保存する。(ファイル名は何でもいい)

input {
    stdin {}
}

output {
    stdout {}
}

これはパイプラインの定義ファイルで、今は標準出力から入力を受け付け、それを標準出力へと出力するという定義になっている。

Dockerで起動する際、パイプライン処理の定義ファイルはデフォルトではコンテナ内の/usr/share/logstash/pipeline/配下のファイルを参照する。
今は~/pipeline/配下にファイルを作成したので、コンテナの/usr/share/logstash/pipeline/にマウントするようにしている。

↓のようにコンテナを起動できる。

$ sudo docker run --rm -it -v ~/pipeline/:/usr/share/logstash/pipeline/ -e XPACK_MONITORING_ENABLED=false docker.elastic.co/logstash/logstash:5.6.0
2017/09/16 13:30:45 Setting 'xpack.monitoring.enabled' from environment.
Sending Logstash's logs to /usr/share/logstash/logs which is now configured via log4j2.properties
[2017-09-16T13:30:55,762][INFO ][logstash.modules.scaffold] Initializing module {:module_name=>"fb_apache", :directory=>"/usr/share/logstash/modules/fb_apache/configuration"}
[2017-09-16T13:30:55,765][INFO ][logstash.modules.scaffold] Initializing module {:module_name=>"netflow", :directory=>"/usr/share/logstash/modules/netflow/configuration"}
[2017-09-16T13:30:55,780][INFO ][logstash.modules.scaffold] Initializing module {:module_name=>"arcsight", :directory=>"/usr/share/logstash/vendor/bundle/jruby/1.9/gems/x-pack-5.6.0-java/modules/arcsight/configuration"}
[2017-09-16T13:30:55,791][INFO ][logstash.setting.writabledirectory] Creating directory {:setting=>"path.queue", :path=>"/usr/share/logstash/data/queue"}
[2017-09-16T13:30:55,792][INFO ][logstash.setting.writabledirectory] Creating directory {:setting=>"path.dead_letter_queue", :path=>"/usr/share/logstash/data/dead_letter_queue"}
[2017-09-16T13:30:55,823][INFO ][logstash.agent           ] No persistent UUID file found. Generating new UUID {:uuid=>"1bded84b-c671-42d3-b076-9b6d7f87d3c5", :path=>"/usr/share/logstash/data/uuid"}
[2017-09-16T13:30:56,004][INFO ][logstash.pipeline        ] Starting pipeline {"id"=>"main", "pipeline.workers"=>4, "pipeline.batch.size"=>125, "pipeline.batch.delay"=>5, "pipeline.max_inflight"=>500}
[2017-09-16T13:30:56,031][INFO ][logstash.pipeline        ] Pipeline main started
The stdin plugin is now waiting for input:
[2017-09-16T13:30:56,096][INFO ][logstash.agent           ] Successfully started Logstash API endpoint {:port=>9600}

今は標準入力からの入力待ち状態なので、適当にhelloと入力してみると、標準出力にタイムスタンプ付きでhelloと出力されることが確認できる。

[2017-09-16T13:30:56,031][INFO ][logstash.pipeline        ] Pipeline main started
The stdin plugin is now waiting for input:
[2017-09-16T13:30:56,096][INFO ][logstash.agent           ] Successfully started Logstash API endpoint {:port=>9600}

hello
2017-09-16T13:31:13.290Z 5df0006be502 hello

パイプライン定義ファイル(Pipeline Configuration Files

パイプライン処理に使用するプラグインやそれらの設定を記述することで、パイプラインを定義する。

ファイル構造の詳細はこちらを参照。

Logstash起動時に-fオプションで使用するパイプライン定義ファイルを指定できる。

$ bin/logstash -f logstash-simple.conf

-eオプションでコマンドラインで直接パイプラインを定義することもできる。

$ bin/logstash -e 'input { stdin { } } output { stdout {} }'

特に指定がない場合は/etc/logstash/conf.d配下の全ファイルを参照するようなので、
無関係なファイルやバックアップ等は配置しないようにした方がいい。

また、LogstashをDockerで起動する場合、デフォルトではコンテナ内の/usr/share/logstash/pipeline/配下のファイルを参照する。
なので、例えば~/pipeline/配下に使用したいパイプライン定義ファイルがある場合、-vオプションでコンテナの/usr/share/logstash/pipeline/にマウントすれば使用できる。

ちなみに、コンテナ内の/usr/share/logstash/pipeline/にはデフォルトでlogstash.confがあるらしい。

$ sudo docker run --rm -it docker.elastic.co/logstash/logstash:5.6.0 cat /usr/share/logstash/pipeline/logstash.conf
input {
  beats {
    port => 5044
  }
}

output {
  stdout {
    codec => rubydebug
  }
}

input

inputはLogstashにデータを取り込むために利用する。
よく利用されるものとして例えば↓のようなものがある。

プラグイン 説明
file tail -0Fに似た挙動でファイルを読み込む。
syslog 514番ポートRFC3164形式のログを受け付ける。

詳細な情報はこちらを参照。

filter

プラグイン 説明
mutate イベントのフィールドに対してリネーム、削除、置換、修正等の変換処理を行う。
drop イベントを削除する。(例えば不要なデバッグログを削除するなどの使い方)
clone イベントのコピーを作成する。フィールドの追加や削除が可能。

詳細な情報はこちらを参照。

output

1つのイベントは複数のoutputを通ることができる。
すべてのoutputが呼ばれたとき、イベントの処理が完了する。

プラグイン 説明
file ディスク上のファイルに出力する。
elasticsearch ElasticSearchに転送する。

詳細な情報はこちらを参照。

codec

codecinputまたはoutputの一部として機能する。

プラグイン 説明
json JSON形式を扱う。
multiline 複数行のテキスト(例えばJavaのスタックトレースとか)を扱う。

詳細な情報はこちらを参照。

設定ファイル (Setting Files

後で書く。

参考

74
74
1

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
74
74