#目次
1.はじめに & 便利な用語
2.Kubernetesのロギング構造
3.ログコレクター:fluentd
4.ロギングエンドポイント:ElasticSearch
5.フルスタックの例
5-1. パイソン
5-2. コンテナ
5-3. Kubernetes
5-4. EFK:ES
5-5. EFK fluentd
5.6. Kibana
6.まとめ
こちらは、英語記事を元に作成されました。元の英語記事はこちらです。この記事を読んだ後にも、さらなる情報が欲しいという方はMetricFireがお助け出来るかもしれませんので、その際はデモをご予約ください。
#1.はじめに & 便利な用語
この記事では、fluentdとElasticSearch(ES)を使用してKubernetes(k8s)のログを記録する方法に焦点を当てていきます。 マイクロサービスのアーキテクチャ、コンテナ、ロギングに関する役立つ情報が含まれ、 さらに、コードを共有し、それを実装する方法についても簡潔に説明しているので、独自のアプリへのログインを開始するときにコードを使用でき、参考にしてもらえると思います。
###知っておくと便利な用語
マイクロサービスアーキテクチャは、開発機能を自律的なサブチームに分割し、より生産的な開発プロセスを可能にします。サブチームは特定のタスクのみに関心があるため、結果として得られるソフトウェア(またはその一部)は「コンテナ化」されます。最も人気のあるコンテナ化ツールであるDockerを使用すると、必要なすべての前提条件とコマンドを備えた独立したイメージを作成できます。イメージのおかげで、特別なマイクロサービス用に構築された独自の環境を持つ多くの異なるコンテナを持つことができます。
]Kubernetes](https://kubernetes.io/)(k8s)は、マイクロサービスを制御、監視、ロールアウト、保守、およびアップグレードするための最良のツールです。 K8sは、複数のコンテナ、アプリケーション、バージョンなどの管理に役立つオープンソースツールです。k8sに詳しくない場合は、こちらで詳細を確認できます。
ロギングを使用すると、ノードのライフサイクルとポッドの通信を制御できます。アプリ内のすべてのジャーナルのようなものです。ログのデータを分析して、問題の洞察、コードスニペットの効率を測定、異なるソフトウェアバージョンの生産性を比較することもできます。 fluentdとElasticSearchはどちらも、ロギングプロセスを容易にする優れたツールであり、アプリがスムーズに実行されるようにします。
2. Kubernetesのロギング構造
Kubernetesのロギングには、基本的なI / Oロギング、ノードレベルのロギング、クラスタレベルのロギングの3つの異なるレベルがあります。
###I / Oロギング
まず、基本的なI / Oロジックがあります。すべての高水準プログラミング言語には、ユーザーデータのprintとwriteをサポートする関数があるため、開発者は必要なすべての情報をスニペットから文書化できます。 k8sはこれらの基本的なデータストリームをサポートし、ログとして取得します。これらのストリームの2つは、stdout(ユーザーがprintするすべてのもの)とstderr(各エラーテキストの説明)です。そのようなロギングの結果には、kubectl logs CLIコマンドを介してアクセスし、ここでデータが収集され、簡単に調べることができます。
しかし、2、3個のアプリ用に1つのログ構造を構築する必要がある場合はどうなるでしょうか。ということで質問です。アプリケーションを備えたポッドがクラッシュした場合はどうなりますか?
残念ながら、基本的なロギングはこれらの質問に答えません。データは一時的です。クラッシュまたは再実行すると、以前のすべてのレコードが消去されます。
###ノードレベルのロギング
これらの問題に対処するには、ノードのログレベルで設定する必要があります。ノードとは、複数のポッドやコンテナなどの環境です。1つの特別なポッドを使用して、ノードへのロギングを普遍化することができます。ノード内のすべてのオブジェクトとやり取りできるため、垂直方向に固有のロギングシステムを作成することができます。
各ポッドからのデータは、単一のログストレージファイル(JSONファイル)に処理されます。これにより、再実行や突然のストップに対処できますが、最大容量にすぐに達する傾向があります。ノードレベルのログはstdout / stderrタイプのみをサポートしており、ノードごとに個別のログ設定が必要です。
###クラスタレベルのロギング
最後に、クラスタロギングレベルがあります。概念は他の2つのレベルと同じですが、k8にはクラスターロギングのサポートが組み込まれていないため、サイドコンポーネントを自分で作成または統合する必要があります。
k8sはインスタントソリューションを提供しませんが、クラスターレベルでログを記録するためのツールをサポートします。 次のセクションでそれらを見ていきましょう。 現時点では、最も一般的なアプローチを理解することが重要です。各ノードにノードレベルのログエージェントを含めることで、クラスターレベルのログを実装できます。 ロギングエージェントは、ログをバックエンドに公開またはプッシュする専用ツールです。 通常、ロギングエージェントは、そのノード上のすべてのアプリケーションコンテナからのログファイルを含むディレクトリにアクセスできるコンテナです。
ロギングエージェントはすべてのノードで実行する必要があるため、DaemonSetレプリカ、マニフェストポッド、またはノード上の専用のネイティブプロセスとして実装するのが一般的です。
ということで、ここまで、ロギングの基本を説明したので、ロギングタスクを支援する2つの主要製品であるfluentdとElasticSearchを見てみましょう。
3.ログコレクター:fluentd
Fluentdは、統合ログ層として理想的なソリューションです。 プロジェクトに必要なタイプのロガーを開いてダウンロードするだけです。 クラスタ内のすべてのノードからデータを収集するKubernetesのDaemonSetツールを使用します。
fluentdを使用すると、スニペットの準備が整い、Dockerイメージが安定して更新されます。さらに、事前定義されたElasticSearch(ES)サポートさえあります。 さらに、ES、MongoDB、Hadoop、Amazon Web Services、Google Cloud Platformなどのさまざまなエンドポイントレシーバーがあります。
ユーザーアプリケーションとk8sクラスターの2つの特別なノードであるkube-apiserverやkube-schedulerなどのクラスターコンポーネントの両方からfluentdはログを収集します。 このアプローチの主な利点は、データがJSONファイルに保存されないため、除外せずに保存されることです。 正確に保存される場所は、プロジェクトのニーズによって異なってきます。
Fluentdはk8sだけでなく、モバイルアプリやウェブアプリのログ、HTTP、TCP、nginx、Apache、さらにはIoTデバイスもすべてfluentdでログに記録できます。
4.ロギングエンドポイント:ElasticSearch
fluentdと同様に、ElasticSearch(ES)は多くのタスクを実行できます。すべてのタスクは検索を中心にしており、 Elastic companyによって開発および提供されるESは、印象的なデータ処理および転送機能を備えた、迅速なクエリセットエグゼキューターです。 ESは、ロギングおよびデータ表現のためのEKスタックの一部であり、 KはKibanaの略で、データのデモンストレーションに役立つ便利な視覚化ソフトウェアです。
ロギングには、ELKとEFKの2つの異なる具体的なスタックがあります。 1つ目は、Elasticドメイン製品であるLogstashです。ただし、このツールはESと電光で接続されているため、k8を直接サポートしていません。ここで、fluentdオープンソースプロジェクトが役に立ちます。k8s統合のいくつかの準備手順でLogstashを使用し、オーケストレーションのユースケースで両方のスタックをマージします。
では、なぜ他の出力リソースよりもElasticSearchを選択する必要があるのでしょうか。それには、多くの理由があります。
- ESは、難しい標準のDBMSルールや制約なしにデータを関係的に保持
- KibanaやLogstashのようなシンプルで強力なネイティブアドオンがある
- RESTful APIインターフェースがあり、基本的なSQL言語よりもはるかに優れており、使いやすい
- マルチスレッドアーキテクチャと強力な分析スキルを備えている
- GitHub、Netflix、Amazonなど多くの主要企業がESを使用
5.フルスタックの例
この例では、fluentd、ES、Kibana(視覚化ツールとして)を接続して、いくつかのサービスとポッドで正確なnamespaceを作成します。 また、単純なPythonフラスコプロジェクトでnamespaceをテストします。
Python 3.7(および必要なすべてのサイドモジュール)でDockerコンテナーを作成します。 後でポッドのソースとしてコンテナを使用します。
このチュートリアルを正常に実装するには、PCに次のスタックが必要です。
- kubectl:Kubernetes CLIインターフェース
- Minikube:実際のエンタープライズクラスタのすべてのワークロードをエミュレートするローカルk8sクラスタ
- Docker:コンテナー化のためのツール
- Python:プログラミング言語; また、独立した仮想環境を作成するには、virtualenvをインストールする必要があります。
さらに、kubectlの場合、PCには、仮想マシンを作成するためのツールであるHypervisorがプリインストールされている必要があります。 または、UNIXベースのOSを使用している場合は、ベアメタルオプションを使用することもできます(Linuxには独自のKVM機能があります)。
###5-1. Python
それでは、Pythonから始めましょう。 まず、必要なすべてのファイルを保存するためにプロジェクト全体のフォルダーを作成します。 次に、スクリプトを開発し、仮想環境を保存し、Docker用にすべてを作成するPythonアプリのサブフォルダーを作成します。
私たちのアプリケーションは非常にシンプルなSimon Saysゲームになります:
最初のページ(またはエンドポイント)で、アプリは「サイモンが言う」に続いて現在の時刻を返します。
{host} / echoに行くと、この応答が繰り返されます。
繰り返しのためのメッセージは「取得」リクエストの「m」引数に含まれることに注意してください。 引数がない場合(具体的には「m」)、アプリは「サイモンが言う」フレーズを返します。
仮想環境を作成するには、Flaskライブラリを(pip installフラスコ経由で)インストールし、.pyファイルを作成します。
from flask import Flask
from flask import request
import datetime
import sys
app = Flask(__name__)
@app.route('/')
def hello():
return "Simon says its {0}".format(datetime.datetime.now())
@app.route('/echo')
def echo():
return 'Simon says {0}'.format(request.args.get('m'))
sys.stderr.write('Error, echo with no symbols!')
sys.stdout.flush()
return "Simon says, but you don't"
if __name__ == '__main__':
app.run(host='0.0.0.0', port='3001')
コードはかなりシンプルです。 echoメソッドを見てみてください。 ここでは、stderrログを作成します。 最後にログの正確性をチェックするときに役立つはずです
これでテストできます。 このファイルを(python .pyを介して)実行し、結果を調べます。 アプリとリクエストは機能するはずです。
独立したイメージも作成したいので、すべての要件を処理する必要があります。 サイドモジュールフラスコをインストールしたので、Python構成を処理する必要がある場合があります。 この目的のために、ターミナルで次の行を実行します:pip freeze> requirements.txt。 この行は、プロジェクトに必要なすべてのモジュールを含むファイルを作成します。 さあ、ここからはコンテナの時間です!
5-2. コンテナ
Dockerを使用している場合は、コンテナ設定に役立つDockerfileファイルと、Dockerが無視する必要のあるファイルとフォルダーを示すdockerignoreファイルを作成します。
Dockerfileから始めましょう(コードは次のとおりです)。
まず、Dockerにイメージがpython 3.7上にあることを伝えます。
現在のフォルダーをすべて、将来のイメージの/ usr / src / appパスにコピーします。
次に、要件の問題を処理するために(前の行で説明したのと同じ)作業ディレクトリを設定します。
最後に、3001ポートを公開し、すべてがpython .pyコマンドで起動することを伝えます。
FROM python:3.7
COPY ./ /usr/src/app
WORKDIR /usr/src/app
RUN pip install -r requirements.txt
EXPOSE 3001
CMD ["python", "simon.py"]
次に、以下のような.dockerignoreファイルを作成します。
最初の行はテキストエディターに関するものです(私たちはVisual Studio Codeを使用しました)
次に、イメージでは不要な仮想環境とDockerfileを無視するとします。
/.vscode
/kub-env
Dockerfile
最後に、ターミナルを開いてDockerコンテナを作成します。
$ docker build -f Dockerfile -t log-simon:latest .
Dockerコンテナを作成すると、完全に独立したDockerイメージが作成されます。 実行するだけで結果を確認できるはずです。 次のコマンドを入力します:docker run -p 3001:3001 log-simon:latest。 そのコマンドを入力した後、ブラウザーでアプリを確認できます。 出力は、コードで取得したものとまったく同じになるはずです。
#5-3. Kubernetes
Minikubeクラスターを実行し(minikube startコマンドを使用)、プロジェクトのルートフォルダーに移動します。 k8sファイル用のフォルダーをもう1つ作成し、そこに移動します。
まず、すべての実験を基本的かつ重要なk8sノードから分離しましょう。 次の行を入力します:kubectl create namespace logging。 名前空間は、さまざまなk8sノードを区別する方法です。
次に、必要なすべてのリソースのデプロイをいくつか行います。Pythonを使用したDockerイメージ、fluentdノード(クラスター内のすべてのノードからすべてのログを収集します)DaemonSet、ES、およびKibana。 .yamlファイル、k8sオブジェクト、アーキテクチャの詳細については、こちらをご覧ください。
deployment.yamlファイルを作成し、次の行を貼り付けます。
apiVersion: v1
kind: Service
metadata:
name: simon-service
spec:
selector:
app: simon
ports:
- protocol: "TCP"
port: 3001
targetPort: 3001
nodePort: 32023
type: LoadBalancer
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: simon
spec:
selector:
matchLabels:
app: simon
replicas: 2
template:
metadata:
labels:
app: simon
spec:
containers:
- name: log-simon
image: log-simon:latest
imagePullPolicy: Never
ports:
- containerPort: 3001
上記の行で混乱していますせんか。 ただ、2つのk8sエンティティを作成しただけです。
1つ目は、アプリとの対話を担当するサービスです。 アプリ「simon」と組み合わせています。 2番目(---行の後)は、simonアプリとその設定です。
デプロイをDockerイメージlog-simon:latestに接続し、2つのレプリカを作成しました。
最後に、ターミナルの次の行であるkubectl create -f deployment.yaml -n loggingを介してアプリを機能させました。
ターミナルでは、deployment.yamlに基づいてデプロイを作成し、それをロギングネームスペース専用にしました。
$ kubectl get pods -o wide -n logging
出力は次のようになります。
Name | Ready | Status | Restarts | Age | IP | Node |
---|---|---|---|---|---|---|
simon-69dc8c64c4-6qx5h | 1/1 | Running | 3 | 4h36m | 172.17.0.10 | minikube |
simon-69dc8c64c4-xzmwx | 1/1 | Running | 3 | 4h36m | 172.17.0.10 | minikube |
「simon」アプリの両方のレプリカ(またはポッド)が機能し、サービスを使用してそれらを確認できます。
$ kubectl get svc -o wide -n logging
Name | Type | CLUSTER-IP | EXTERNAL-IP | PORT(S) | Age | Selector |
---|---|---|---|---|---|---|
simon-service | LoadBalancer | 10.96.145.153 | 3001:32023/TCP | 4h40m | app=simon |
新しいポッドまたはサービスがある場合はいつでも同じ手順を実行できます。
注釈:
列「ポート」は、サービスが正確に格納される場所を説明します。 これを確認するには、minikube ipコマンドを実行して、クラスターの正確なIPアドレスを取得します。 次に、ポート(この場合は32023)を追加し、ブラウザでこのページにアクセスします。 結果は、最後にチェックした2回と同じになります。アプリは機能します。
5-4. EFK: ES
それでは、EFKスタックを作成していきましょう。 まず、バックエンドストレージエンジンであるElasticSearchから始めます。 このスキームは、前のコードスニペットに似ています。サービスとポッドを一つずつ、そしてelastic_search.yamlファイルを作成します。
apiVersion: apps/v1
kind: Deployment
metadata:
name: elasticsearch
spec:
selector:
matchLabels:
component: elasticsearch
template:
metadata:
labels:
component: elasticsearch
spec:
containers:
- name: elasticsearch
image: docker.elastic.co/elasticsearch/elasticsearch:7.4.1
env:
- name: discovery.type
value: single-node
ports:
- containerPort: 9200
name: http
protocol: TCP
resources:
limits:
cpu: 500m
memory: 4Gi
requests:
cpu: 500m
memory: 4Gi
---
apiVersion: v1
kind: Service
metadata:
name: elasticsearch
labels:
service: elasticsearch
spec:
type: NodePort
selector:
component: elasticsearch
ports:
- port: 9200
targetPort: 9200
ここでもデプロイを作成しましたが、独自のDockerイメージの代わりに、次を使用しました:docker.elastic.co/elasticsearch/elasticsearch:7.4.1
EFKスタックでは、ポッドを1つだけ作成し、正確なリソース使用を委任し、ノードにサービスを作成しました。 コマンドkubectl create -f elastic_search.yaml -n loggingは、インストールされたローカルESクラスターで1つ以上のポッドとサービスを作成しました。
curl $(minikube ip):を使用してコードを確認できます。はESサービスのポートです(この場合は32541)。 応答は以下のものに近いはずです:
{
"name" : "elasticsearch-59bbd49f77-25vrm",
"cluster_name" : "docker-cluster",
"cluster_uuid" : "oSaNWO1fQcyCVJkskqR-kw",
"version" : {
"number" : "7.4.1",
"build_flavor" : "default",
"build_type" : "docker",
"build_hash" : "fc0eeb6e2c25915d63d871d344e3d0b45ea0ea1e",
"build_date" : "2019-10-22T17:16:35.176724Z",
"build_snapshot" : false,
"lucene_version" : "8.2.0",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
これでESの準備は完了です。
5-5. EFK: fluentd
EFKの略語によると、2つ目はF。ということで次はfluentdです。 2つのファイルを作成して適用していきます。 私たちのfluentdノードはクラスターからのすべてのログを保持する必要があるため、他のnamespace-kube-systemにインストールすることと さらに、RBACにいくつかのアクセスを許可する必要があります。 fluent-rbac.yamlを作成し、次のコンテンツを入力します。
apiVersion: v1
kind: ServiceAccount
metadata:
name: fluentd
namespace: kube-system
---
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRole
metadata:
name: fluentd
namespace: kube-system
rules:
- apiGroups:
- ""
resources:
- pods
- namespaces
verbs:
- get
- list
- watch
---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
name: fluentd
roleRef:
kind: ClusterRole
name: fluentd
apiGroup: rbac.authorization.k8s.io
subjects:
- kind: ServiceAccount
name: fluentd
namespace: kube-system
上記のコードでは、いくつかのclusterRoleバインディングを許可し、ServiceAccountを作成しました。
次に、元のDockerイメージからfluentdをデプロイする必要があります。 fluentd.yamlファイルを作成し、次の行を貼り付けます。
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: fluentd
namespace: kube-system
labels:
k8s-app: fluentd-logging
version: v1
kubernetes.io/cluster-service: "true"
spec:
selector:
matchLabels:
k8s-app: fluentd-logging
template:
metadata:
labels:
k8s-app: fluentd-logging
version: v1
kubernetes.io/cluster-service: "true"
spec:
serviceAccount: fluentd
serviceAccountName: fluentd
tolerations:
- key: node-role.kubernetes.io/master
effect: NoSchedule
containers:
- name: fluentd
image: fluent/fluentd-kubernetes-daemonset:v1.3-debian-elasticsearch
env:
- name: FLUENT_ELASTICSEARCH_HOST
value: "elasticsearch.logging"
- name: FLUENT_ELASTICSEARCH_PORT
value: "9200"
- name: FLUENT_ELASTICSEARCH_SCHEME
value: "http"
- name: FLUENT_UID
value: "0"
resources:
limits:
memory: 200Mi
requests:
cpu: 100m
memory: 200Mi
volumeMounts:
- name: varlog
mountPath: /var/log
- name: varlibdockercontainers
mountPath: /var/lib/docker/containers
readOnly: true
terminationGracePeriodSeconds: 30
volumes:
- name: varlog
hostPath:
path: /var/log
- name: varlibdockercontainers
hostPath:
path: /var/lib/docker/containers
上記の行では、DaemonSetツールを作成し、hostPath構成を確認し、fluentdの可能な使用法を決定しました。
これで、2つのファイルを適用できます。 次の2行を続けて実行します:kubectl create -f fluentd-rbac.yamlとkubectl create -f fluentd.yaml。 結果はkube-system Namespaceのポッドで確認できます。
$ kubectl get pods -n kube-system
そのアウトプットは以下のようになります。
Name | Ready | Status | Restarts | Age |
---|---|---|---|---|
coredns-5644d7b6d9-74sgc | 1/1 | Running | 8 | 5d8h |
coredns-5644d7b6d9-fsm8x | 1/1 | Running | 8 | 5d8h |
etcd-minikube | 1/1 | Running | 2 | 4h31m |
fluentd-npcwf | 1/1 | Running | 5 | 14h |
kube-addon-manager-minikube | 1/1 | Running | 8 | 5d8h |
kube-apiserver-minikube | 1/1 | Running | 2 | 4h31m |
kube-controller-manager-minikube | 1/1 | Running | 24 | 2d3h |
kube-proxy-nm269 | 1/1 | Running | 8 | 5d8h |
kube-scheduler-minikube | 1/1 | Running | 24 | 5d8h |
storage-provisioner | 1/1 | Running | 9 | 5d8h |
Fluentdが実行されています! ESへの接続を確認するには、次のコマンドを使用します。
kubectlログfluentd-npcwf -n kube-system
Elasticsearch cluster => {:host => "elasticsearch.logging"、:port => 9200、:scheme => "http"}に対して開かれた接続から出力が始まる場合、すべて問題ありません。
5-6. Kibana
最後に、Kibanaを使用してログを視覚的に表現します。 次の行を含むkibana.ymlファイルを作成していきます。
apiVersion: apps/v1
kind: Deployment
metadata:
name: kibana
spec:
selector:
matchLabels:
run: kibana
template:
metadata:
labels:
run: kibana
spec:
containers:
- name: kibana
image: docker.elastic.co/kibana/kibana:7.4.1
env:
- name: ELASTICSEARCH_URL
value: http://elasticsearch:9200
- name: XPACK_SECURITY_ENABLED
value: "true"
ports:
- containerPort: 5601
name: http
protocol: TCP
---
apiVersion: v1
kind: Service
metadata:
name: kibana
labels:
service: kibana
spec:
type: NodePort
selector:
run: kibana
ports:
- port: 5601
targetPort: 5601
このコードでは、spec.template.spec.envノードという1つ大きな変更を加えて、以前と同じように展開/サービスソリューションを構築しました。 このノードでは、事前に定義されたポートでESサーバーをポイントするため、Kibanaがそれに接続します。
次に、exec kubectl create -f kibana.yaml -n loggingを実行すると、最終的にすべてのスタックを確認できます。
Kibanaのポートを見つけ(get podsコマンドを使用)、ブラウザーで実行します。
これが私たちの視覚化できたものです。 左側のドロップダウンメニューで[管理]を見つけます。
Kibanaブロックの下の[Index Patterns]をクリックします。
可能なインデックスがいくつか表示され、新しいインデックスを作成できます。 テキストボックスにlogstashと入力し、[Next Step]をクリックします。
次に、ドロップダウンボックスで@timestampを選択し、[Create index pattern]をクリックします。
インデックスlogstashの準備ができたので、ログはfluentdによって収集され、ESに送信され、Kibanaによって取得されます。 すべてが機能しているかどうかを確認してみましょう。左側のバーにある[Discover]をクリックします。
そしてここにあります! 強力な視覚化機能と追跡機能を備えたスマートログストレージ。 次に、simonアプリのサービスに移動し、引数なしで/ echoエンドポイントにアクセスしてみます。 その後、Kibanaの検索ボックスに「simon」と入力し、[Update]をクリックします。
これは、simonアプリケーションのログです。 このオブジェクトを展開すると、この記事の冒頭でコード内に記述したテキストが見つかります。
EFKスタックを使用したログ構造が準備でき、すべてのクラスターからのログが収集および処理されるため、アプリケーションをより簡単に追跡および維持できます。
6. まとめ
ロギングは、特にアプリケーションの状態など、多くの要素を制御する必要がある場合、プログラミングにおいて非常に強力で不可欠な手段です。そのため、ロギングアーキテクチャなしにk8sクラスターを想像することは不可能です。
もちろん、k8sはこの目的のための基本的な機能を提供しますが、ノードがクラッシュまたは再実行すると、貴重な情報を失うリスクがあります。ログを個別に処理および保存するのに役立つスタックは、ベースノードとしてクラスターの一部となり、これがfluentdおよびESが役立つ場所です。
これらのツールを使用すると、ユーザーはポッド/ノード/名前空間のログを制御できるだけでなく、すべてのクラスターを制御することもできます。さらに、ESとfluentdには、Kibanaのような強力な視覚化機能が含まれています。 ESとfluentdはデータを理解しやすくし、動的なフィルターと更新を備えています。スタックを一度設定すれば、データを失う心配はありません。
MetricFireがホストするGraphiteページで、他のオプションの詳細を確認してください。 MetricFireは時系列の監視を専門としていますが、Elasticsearchはログ監視領域を支配しています。無料トライアルで製品を試して時系列データを監視するか、デモを予約して、効果的な監視ソリューションについて直接ご相談ください。