LoginSignup
16
7

More than 5 years have passed since last update.

ElasticSearch を X-Pack 以外の方法で監視する

Last updated at Posted at 2017-12-07

ElasticStack には X-Pack Monitoring という監視ツールが標準でついてきますが、今回はあえて別のツールを用いて監視を行ってみます。

X-Pack Monitoring を使用しない理由のひとつとして、すでに他の Monitoring Tool を採用していて、情報は採用済みのツールに集約したい、といったケースがあると思います。

現場によって状況は様々でしょうが、ここでは一例として以下のツールを用いた監視について記載します。

  • Prometheus
  • Datadog

Prometheus

prometheus には様々な 3rd party の Exporter が提供されていますが、ElasticSearch 向けにも以下の Exporter が提供されているようです。

ここでは star が最も多くついている elasticsearch_exporter を使用します。

設定(run on docker)

再現しやすいように docker で prometheus と elastic_exporter を起動してみます。

prometheus.yml
global:
  scrape_interval:     15s
  evaluation_interval: 15s
  external_labels:
      monitor: 'codelab-monitor'
scrape_configs:
  - job_name: 'prometheus'
    static_configs:
      - targets:
        - 'localhost:9090'
  - job_name: 'elasticsearch'
    static_configs:
      - targets:
        - 'elasticsearch_exporter:9108'
docker-compose.yml
version: '3'
services:
  prometheus:
    image: prom/prometheus
    container_name: prometheus
    volumes:
      - ./prometheus.yml:/etc/prometheus/prometheus.yml
    ports:
      - 9090:9090
    links:
      - elasticsearch_exporter:elasticsearch_exporter
  elasticsearch_exporter:
    image: justwatch/elasticsearch_exporter:1.0.1
    command:
     - '-es.uri=<elastic search url>'
     - '-es.all=true'
    restart: always
    ports:
      - 9108:9108

画面

上記設定を行って起動すると、Prometheus 上でメトリクスの確認が行えるようになります。

image.png

実際には Grafana などのグラフ作成ツールの方がグラフやダッシュボードの作成は行いやすいので、Grafana と連携してグラフやダッシュボードを作成してメトリクスを確認することが多いかなと思います。Grafana Labs を覗くと、以下のようなダッシュボードが公開されていたりします。
https://grafana.com/dashboards/878

監視項目

elasticsearch_exporter は、README にもあるように以下の API を呼び出して値の取得を行っているようです。

  • /_nodes/stats
  • /_all/_stats

Prometheus 内で扱われる Metrics 一覧については以下 README の内容を参照ください。
https://github.com/justwatchcom/elasticsearch_exporter#metrics

elasticsearch_exporter は上記の用に ElasticSearch が提供している API を介してメトリクスを収集していますが、ElasticSearch が動作している環境に Exporter が設置できるようであれば node_exporterjmx_exporter を導入して、システムメトリクスをより詳細に取得することができます。

また、簡易 synthetics 的に HTTP 経由で ElasticSearch サーバーの死活監視を行う場合は、Prometheus では blackbox_exporter を使用します。こちらも必要に応じて追加します。

Datadog

Monitoring SaaS 界で人気のある Datadog も、標準で ElasticSearch 対応のプラグインが提供されています。
https://docs.datadoghq.com/integrations/elasticsearch/

設定

Datadog のエージェントプログラム (dd-agent) をインストールすると、標準で /etc/dd-agent/conf.d/elastic.yaml.example に以下のような ElasticSearch プラグインの雛形が設置されていますので、有効にする場合は elastic.yaml にリネームした上で設定を加えていきます。
設定後再起動すると、dd-agent に設定内容が反映されます。

elastic.yaml
instances:
  - url: https://<elasticsearch host>:<elasticsearch port>/
    username: <elasticsearch username>
    password: <elasticsearch password>
    cluster_stats: true
    pshard_stats: true
    pending_task_stats: true
    tags:
      - ‘hoge:fuga’

画面

上記のような形で Datadog agent を設定して起動すると、Datadog の Metrics Exproler でメトリクスが取得できていることを確認できます。

image.png

また、Datadog は ElasticSearch の標準のダッシュボードが用意されていて、そちらを用いることでわかりやすく ElasticSearch のサーバーの状態を可視化することが可能になっています。

image.png

監視項目

elasticsearch プラグインのソースを読む限り、datadog plugin の中では以下のような ElasticSearch の Endpoint を呼び出して値を取得しているようです。

  • /_nodes/stats
  • /_cluster/health
  • /_cluster/pending_tasks
  • /_cluster/nodes/stats

elasticsearch プラグインで取得する Metrics 一覧については以下を参照ください。
https://docs.datadoghq.com/ja/integrations/elasticsearch/#metrics

Datadog についても Prometheus と同様 ElasticSearch Plugin は API 経由で値を取得していますが、ElasticSearch のサーバー上に Datadog の Agent が設置可能であればより詳細のシステムメトリクスを取得することが可能になります。

また、ElasticSearch の死活監視については、Datadog プラグインで死活監視用のプラグインが標準で備わっているので、これらを用います。

さらにメトリクスを追加する

上記のような内容でも十分に ElasticSearch のメトリクスが収集できているようにも思えますが、ElasticSearch は /_cat/ API を使用することにより更に詳細な情報の取得もできますので、それらの情報も Prometheus や Datadog に取り込みたいところです。
/_nodes/stats などでもある程度網羅的に情報が取得できますが、個々のノードやインデックスの細かい情報を取得したい時には、どうしても cat API の情報が必要となってきます。
https://www.elastic.co/guide/en/elasticsearch/reference/current/cat.html

新たにメトリクスを追加する場合、Exporter やプラグインを作成して拡張する必要があります。
以下では例として、特定の cat API からデータを取得してその結果を datadog に送信する処理について記載します。

/_cat/thead_pool

thread_pool の空き状況を見ることでリソースの余剰具合を判断するために取得します。

ElasticSearch ではそれぞれの thread_pool について

  • active
  • queue
  • rejected

の三種のステータスが表示されるので、search operation など特に注視しておきたい thread_pool についてメトリクスを取得しグラフを作成して日々 thread_pool の詰まりが発生していないか注視をしています。

image.png

以下は python を用いた擬似コード的なもので、API に接続し、パースした上で、監視対象の thread_pool について Datadog にメトリクスを送信する、という処理を表現しています。

    result = requests.get('https://' + host + '/_cat/thread_pool', auth=HTTPBasicAuth(username, password))
    if result.status_code == 200:
        for line in result.text.split('\n'):
            params = line.split()
            node_name = params[0]
            thread_pool_name = params[1]
            active = params[2]
            queue = params[3]
            rejected = params[4]
            if thread_pool_name in thread_pools:
                send_metric_to_datadog('elasticsearch.thread_pool.' + thread_pool_name + ".active", float(active), host, tags)
                send_metric_to_datadog('elasticsearch.thread_pool.' + thread_pool_name + ".queue", float(queue), host, tags)
                send_metric_to_datadog('elasticsearch.thread_pool.' + thread_pool_name + ".rejected", float(rejected), host, tags)

/_cat/nodes

ElasticSearch クラスターの各ノードの情報詳細を取得します。datadog などを直接ホストコンピュータにインストールできる環境では当該処理は不要かもしれませんが、そうではない環境下において CPU や Load Average、メモリ、ディスクの情報などが取得できるのは便利なので使用します。

image.png

/_cat/nodes?v&h=id,ip,port,v,m といった形で値が必要な項目をカンマ区切りで複数渡せるようになっているので、必要な情報リストを設定ファイル等で渡して取得するようにしています。


    url = 'https://' + host + '/_cat/nodes?v&h=' + ','.join(headers).replace('\n','')
    result = requests.get(url, auth=HTTPBasicAuth(username, password))
    if result.status_code == 200:
        column_names = []
        for line in  result.text.split('\n'):
            if len(column_names) == 0:
                column_names = line.split()
                continue;
            params = line.split()
            node_ip = params[0]
            node_name = params[1]
            for i in range(2, len(column_names)):
                column_name = column_names[i]
                param = params[i]
                tags = dd_tags[:]
                tags.append('node_ip:' + node_ip)
                tags.append('node_name:' + node_name)
                send_metric_to_datadog('elasticsearch.nodes.' + column_name, float(param), host, tags)

/_cat/indices

ElasticSearch のインデックスの中に含まれているドキュメントの数や、インデックスのデータサイズなどを取得するために使用します。
主にドキュメント数やサイズの急増・急減などアノマリー的な事象に気づくために使用しています。

    url = 'https://' + host + '/_cat/indices/*?v&h=index,health,docs.count,store.size'
    result = requests.get(url, auth=HTTPBasicAuth(username, password))
    if result.status_code == 200:
        column_names = []
        for line in result.text.split('\n'):
            if len(column_names) == 0:
                column_names = line.split()
                continue;
            params = line.split()
            index_name = params[0]
            for i in range(1, len(column_names)):
                column_name = column_names[i]
                param = params[i]
                tags = dd_tags[:]
                tags.append('index_name:' + index_name)
                send_metric_to_datadog('elasticsearch.indices.' + column_name, float(param), host, tags)

まとめにかえて

ElasticSearch では X-Pack Monitoring で監視をするのが王道な気はしますが、様々な諸事情で他の監視ツールを使う必要が出てくることもあります。
ElasticSearch は各種メトリクスを取得するための API が充実しているため、上に挙げたような 3rd Party ツールでも ElasticSearch に予め対応しているツールもサービスも多いですし、独自で拡張する余地も残されています。

ということで簡単な監視周りのお話でした。Happy Elastic Life!

16
7
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
16
7