TIBCO Spotfire Analyst | Databricks on AWS [2021/8/2時点]の翻訳です。
本書は抄訳であり内容の正確性を保証するものではありません。正確な内容に関しては原文を参照ください。
ステップバイステップの手順はこちらを参照ください。
ステップ1: Databricks接続情報の取得
クラスター
- パーソナルアクセストークンを取得します。
- お使いのクラスターのJDBC/ODBCタブからServer Hostname、Port、HTTP Pathフィールドの値を取得します。
SQLエンドポイント
- パーソナルアクセストークンを取得します。
- お使いのSQLエンドポイントのConnection DetailsタブからServer Hostname、Port、HTTP Pathフィールドの値を取得します。
ステップ2: TIBCO SpotfireでDatabricksクラスター接続を設定
- TIBCO Spotfire Analystのナビゲーションバーで、プラス(Files and data)アイコンとConnect toをクリックします。
- Databricksを選択しNew connectionをクリックします。
- Apache Spark SQLダイアログで、GeneralタブのServerに、ステップ1のServer HostnameとPortフィールドの値をコロン区切りで入力します。
- Authentication methodで、Username and passwordを選択します。
-
Usernameに
token
を入力します。 - Passwordにステップ1で取得したパーソナルアクセストークンを入力します。
- AdvancedタブのThrift transport modeでHTTPを選択します。
- HTTP Pathにはステップ1で取得したHTTP Pathを入力します。
- GeneralタブでConnectをクリックします。
- 接続が成功したら、Databaseリストで使用したいデータベースを選択してOKをクリックします。
ステップ3: Databricksで分析データを選択
Views in Connectionダイアログでデータを選択します。
- Databricksで利用できるテーブルを参照します。
- ビューとして使用したいテーブルを追加します。TIBCO Spotfireで分析するデータテーブルとなります。
- それぞれのビューに含めるカラムを選択することができます。特定かつ柔軟性のあるデータの選択を行いたい場合には、以下に示すようにこのダイアログでパワフルなツールにアクセスすることができます。
- カスタムのクエリー。カスタムのクエリーを用いることで、カスタムのSQLクエリーを用いて分析したいデータを選択することができます。
- プロンプティング。ユーザーに分析ファイルのデータ選択を委ねます。好きなカラムに基づいてプロンプトを設定することができます。そして、アナリシスを開くエンドユーザーは、適切な値にデータを制限して参照することができます。例えば、特定の期間や特定の地域にデータを限定することができます。
- OKをクリックします。
ステップ4: Databricksやインポートデータにクエリーをプッシュダウン
分析したいデータを選択したのち、最後のステップはDatabricksからデータを取得する方法を選択することとなります。アナリシスに追加しようとするデータテーブルのサマリーが表示され、データロードの方法を変更するためにそれぞれのテーブルをクリックします。
DatabricksのデフォルトオプションはExternalとなっています。これは、データテーブルはDatabricksのデータベースに維持されることを意味し、TIBCO Spotfireはアナリシスにおける皆様のアクションに基づいて、適切なデータスライスに対する異なるクエリーをデータベースにプッシュします。
Importedを選択することも可能で、TIBCO Spotfireはデータテーブル全てを抽出し、ローカルでのインメモリ分析を可能とします。データテーブルをインポートする際、TIBCO Spotfireの埋め込みインメモリデータエンジンの分析関数を使用することも可能です。
3つ目のオプションは、On-demand(動的なWHERE
句に対応)であり、アナリシスにおけるユーザーアクションに基づいてデータのスライスが抽出されます。評価指標として、データのマーキングやフィルタリング、ドキュメントプロパティの変更のようなアクションを定義することができます。オンデマンドのデータロードはExternalデータテーブルと組み合わせることも可能です。