1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

lenses boxをうごかした

Posted at

位置づけ

lenses boxとやらを使うと次の取り組みに使えそうだったので、
環境構築を試しながらスクショやらメモやらを残している。

goal

lensesをつかってkafka clusterとその周辺の仕組みを雑に動かしたい

インフラ面

lensesio/boxでdockerで実験環境のようなものを動作させられる

アプリ面

kafka topicを入力に、Streaming SQLを実行、データフローの可視化ができそう。

start

ここから実施。
https://lenses.io/start/
image.png
メールアドレスを入れて登録

以下のようなメールがきた。
image.png
実行してみる。

メールの中にdocker run コマンドが入ってるので実施

以降はこの手順に沿って手を動かす
https://lenses.io/apache-kafka-docker/

ブラウザから管理画面へ

admin/admin でログイン
image.png

それっぽい画面に到達
image.png

SQL Studioとやらでデータをみる

なんのデータを見ているのかわからないが 手順に従いSQLでデータを見る。
image.png

実行結果が中央下側。

新しいKafkaトピックを作る

新しくデータを投入する。
Exploreを選択すると右上にCreateTopicがある
image.png

適当にトピックを作成
image.png

データパイプラインの作成

データパイプラインを作ってリアルタイムイベントをKafka topicとして投入する。

コネクター画面へ移動&New Connector
image.png

Fileコネクタを選択し、設定をコピペする。
image.png

手順にはないが、SQL Studioでクエリをしてみる
image.png
何かは取れてそう

SQL Processor

streaming SQLでリアルタイムデータを処理

image.png

手順に含まれていた streaming SQLを定義
内容的には speed_boatsができる模様

SET defaults.topic.autocreate=true;
INSERT INTO speed_boats
  SELECT STREAM MMSI, Speed, Longitude AS Long, Latitude AS Lat, `Timestamp`
  FROM sea_vessel_position_reports
  WHERE Speed > 10;

image.png

手順にないがExploreからデータを確認。
SQLに書かれているようにSpeedが10以上が抽出されたトピックが新しくできている。
image.png

Consumer Monitor

データ消費者の可視化(手順上画面開くだけ・・・かな)
image.png

リアルタイムデータフロー

Kafkaのトピックからどうデータが流れるかの可視化。
image.png

アラートの設定

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?