前提条件
この記事を試すには、以下が必要です。
-
Confluent Cloud アカウント
- 無料トライアル可(登録時に $400 分のクレジット付与)
- Confluent Cloud サインアップページ から登録
-
CLI のインストール
-
公式ドキュメント に従って
confluent
コマンドをインストール -
インストール確認:
confluent version
-
-
Flink Compute Pool が作成済み
-
CLI または Confluent Cloud コンソールから事前に作成
-
CLI で確認:
confluent flink compute-pool list
-
Status
がPROVISIONED
になっている必要あり
-
-
インターネット接続環境
- Confluent Cloud のエンドポイントにアクセスできること
- ファイアウォールやプロキシが制限していないこと
💡 もし「Compute Pool をまだ作っていない」人向けに、CLI で Compute Pool を作る前準備コマンド を追記できる👇
confluent flink compute-pool create my-flink \
--max-cfu 10 \
--cloud aws \
--region ap-northeast-1
1. Confluent CLI にログイン
confluent login
- メールアドレスとパスワード、または SSO でログイン
- ログイン後、CLI が API にアクセスできるようになります
2. Flink Compute Pool を確認
confluent flink compute-pool list
例:
ID Name Cloud Region Status
1XXX-XXXXX AWS.ap-XXXXX... XXXXX ap-northeXXXX PROVISIONED
3. Flink Shell に接続
confluent flink shell ID(例:1XXX-XXXXX)
成功すると、以下のようなプロンプトが表示されます。
No Flink endpoint is specified, defaulting to public endpoint: https://flink.ap-northeast-1.aws.confluent.cloud
Welcome!
To exit, press Ctrl-Q or type "exit".
[Ctrl-Q] Quit [Ctrl-S] Toggle Completions [Ctrl-G] Toggle Diagnostics
>
4. サンプルデータカタログに切り替え
USE CATALOG examples;
USE default_database;
SHOW TABLES;
pageviews
や users
などのサンプルテーブルが表示されます。
5. サンプルデータをクエリ
SELECT * FROM pageviews LIMIT 5;
SELECT * FROM users LIMIT 5;
これで、サンプルデータを使ったクエリ結果を確認できます。
6. 公式ドキュメント(参考)
- Exercise: Get started with Confluent Cloud for Apache Flink
https://developer.confluent.io/courses/flink-sql/get-started-cc/