位置づけ
lenses boxとやらを使うと次の取り組みに使えそうだったので、
環境構築を試しながらスクショやらメモやらを残している。
goal
lensesをつかってkafka clusterとその周辺の仕組みを雑に動かしたい
インフラ面
lensesio/boxでdockerで実験環境のようなものを動作させられる
アプリ面
kafka topicを入力に、Streaming SQLを実行、データフローの可視化ができそう。
start
ここから実施。
https://lenses.io/start/
メールアドレスを入れて登録
メールの中にdocker run コマンドが入ってるので実施
以降はこの手順に沿って手を動かす
https://lenses.io/apache-kafka-docker/
ブラウザから管理画面へ
SQL Studioとやらでデータをみる
なんのデータを見ているのかわからないが 手順に従いSQLでデータを見る。
実行結果が中央下側。
新しいKafkaトピックを作る
新しくデータを投入する。
Exploreを選択すると右上にCreateTopicがある
データパイプラインの作成
データパイプラインを作ってリアルタイムイベントをKafka topicとして投入する。
手順にはないが、SQL Studioでクエリをしてみる
何かは取れてそう
SQL Processor
streaming SQLでリアルタイムデータを処理
手順に含まれていた streaming SQLを定義
内容的には speed_boatsができる模様
SET defaults.topic.autocreate=true;
INSERT INTO speed_boats
SELECT STREAM MMSI, Speed, Longitude AS Long, Latitude AS Lat, `Timestamp`
FROM sea_vessel_position_reports
WHERE Speed > 10;
手順にないがExploreからデータを確認。
SQLに書かれているようにSpeedが10以上が抽出されたトピックが新しくできている。
Consumer Monitor
リアルタイムデータフロー
アラートの設定
略