Help us understand the problem. What is going on with this article?

SparkでKafkaを経由して外部のデータを読取りします「前言」

More than 1 year has passed since last update.

本投稿では、下表のように、SparkStreamingでKafkaクラスターを経由してMQTTにコネクトした上で、MQTTに生産されたメッセージを読取ってワードカウントを行う環境を構築してみます。

<システムノード利用状況>

サーバ種類 端末状況 解説
MQTT 端末n台 メッセージを作成してKafkaに送信する配信ノード
Kafka Cluster ノード3台 MQTTからのメッセージを収集してキューイングを行うKafkaノード
Zookeeper Cluster ノード3台(Kafka同居) データ分散管理されるZookeeperノード
Spark Standalone Master1台 Sparkクラスタのリソースを管理するSpark Masterノード
Slave2台 Kafkaクラスタからデータを取得しワードアカウントを行うSpark Workerノード

システムの処理の流れとしては、大まかで以下の二つに分けられています。
まず、Kafkaコネクタを利用してMQTTに生産されたメッセージを取得して、Kafkaクラスタで取得したデータをキューイングしておきます。Kafkaは、そまざまな設備に生産された大量のデータを高速に収集してリアルタイム処理しておくことができて、スケーラビリティに優れるシステムなので、MQTT端末が複数台あれば、それぞれの端末に生成されたメッセージをKafkaコネクタに収集しておくことが必要になっています。
つぎ、KafkaStreamingは、一定間隔でKafkaからデータを読み出して、ワードアカウントを行います。

上記ようなデータの流れ環境の作成については、以下の順に記述します。

  • Step1: Kafka稼働環境作成
  • Step2: KafkaコネクトMQTT
  • Step3: SparkStreamingでデータ取得

☆★☆ 次の文章へ ☆★☆
SparkでKafkaを経由して外部のデータを読取りします「Kafka稼働環境作成」

Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
Comments
No comments
Sign up for free and join this conversation.
If you already have a Qiita account
Why do not you register as a user and use Qiita more conveniently?
You need to log in to use this function. Qiita can be used more conveniently after logging in.
You seem to be reading articles frequently this month. Qiita can be used more conveniently after logging in.
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
ユーザーは見つかりませんでした