3
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

DatabricksレイクハウスにおけるData Vaultのベストプラクティスと実装

Posted at

What’s a Data Vault Model and How to Implement It on the Databricks Lakehouse Platform - The Databricks Blogの翻訳です。

本書は抄訳であり内容の正確性を保証するものではありません。正確な内容に関しては原文を参照ください。

以前の記事、DatabricksレイクハウスプラットフォームにおけるData Vault実装の規範的ガイドでは、Data Vaultのコアコンセプトを説明し、Databricksでの活用ガイドを提供しました。我々には、レイクハウスでのData Vaultのサンプルや容易な実装を探している多くのお客様がいらっしゃいます。

本記事では、DatabricksレイクハウスプラットフォームにおけるData Vaultの実装方法にディープダイブし、Delta Live Tablesを用いたリアルタイムでのEDW Data Vaultモデルのロードのライブのサンプルを提供します。

この記事でカバーするハイレベルのトピックは以下の通りです:

  1. なぜData Vaultなのか
  2. レイクハウスにおけるData Vault
  3. DatabricksレイクハウスにおけるData Vaultモデルの実装
  4. まとめ

1. なぜData Vaultなのか

Data Vaultの主要なゴールは、現代世界においてスケーラブルでモダンなデータウェアハウスを構築することです。コアにおいては、ビジネス世界をモデリングするためにハブ、サテライト、リンクを活用し、環境変化に対する回復性を持つ安定(ハブ)しつつも柔軟性(サテライト)のあるデータモデルとアーキテクチャを実現します。ハブには、コアのビジネスが変化しない限り変化しないビジネスキーが含まれ、Data Vaultモデルのスケルトンを構成しますが、サテライトには容易に作成、拡張できるハブのコンテキスト上の属性が含まれます。

設計上の3つのキーとなる利点を持つData Vaultのハイレベルのデザインに関しては以下をご覧ください:

  1. 以下でわかるように、顧客、製品、注文のハブやサテライトは並列でロードすることができ、モデルのテーブル間の依存関係が少ないので、企業データウェアハウスの効率的な並列ロードを実現します。
  2. テーブルにはインサートのみであり、ソースのメタデータを保持することが推奨されるので、生のVaultで単一のバージョンのファクトを保持します。
  3. モデルに新たなハブやサテライトを容易に追加できるので、データ資産デリバリーの市場投入を高速にします。


Data Vaultモデルのコアコンポーネント

2. レイクハウスにおけるData Vault

Databricksレイクハウスプラットフォームは、非常にうまくData Vaultモデルをサポートしており、レイクハウスにおけるData Vaultモデルのハイレベルなアーキテクチャについては以下をご覧ください。堅牢でスケーラブルなDelta Lakeストレージフォーマットによって、変更されていないデータが格納される生のVault、必要に応じてビジネスルールや変換処理が適用されるビジネスVaultの構築が可能となります。両方とも上述のデザインにアラインするので、Data Vaultモデルのメリットを享受することができます。

レイクハウスにおけるData Vaultモデル

3. DatabricksレイクハウスにおけるData Vaultモデルの実装

以前のセクションのデザインによって、ハブ、サテライト、リンクテーブルのロードはわかりやすいものとなります。例えば、顧客と製品ハブテーブルは、両方とも自分だけのビジネスキーを持っているのでロード可能であるように、それぞれが依存していないことで並列にすべてのETLロードを行うことができます。customer_product_linkテーブル、顧客サテライト、製品サテライトも、ソースから必要なすべての属性を取得しているので並列でロードすることができます。

全体的なデータフロー

以下のDelta Live Tableパイプラインにあるハイレベルのデータフローをご覧ください。我々の例では、意思決定支援ベンチマークでよく用いられるTPCHデータを使用しています。最初にブロンズレイヤーにデータがロードされ、Deltaフォーマットで格納され、これらはオブジェクトごと(顧客や注文のハブやサテライトなど)の生のVaultに登録するために使用されます。ビジネスVaultは、生のVaultのオブジェクト上に構築され、レポートや分析での活用のためにデータマートオブジェクト(dim_customer, dim_orders, fact_customer_orderなど)が作成されます。

生のVault

生のVaultは生のデータを格納し、単一バージョンの真実を維持するハブ、サテライト、リンクテーブルを格納します。以下でわかるように、raw_customerをベースとしてビューraw_customer_vwを作成し、必要に応じて存在確認や比較を行うためのカラムのハッシュを作成するためにハッシュ関数sha1(UPPER(TRIM(c_custkey)))を使用します。

-- create raw customer view and add hash columns for checking existence or comparison 
CREATE  STREAMING LIVE VIEW raw_customer_vw
COMMENT "RAW Customer Data View"
AS  SELECT
        sha1(UPPER(TRIM(c_custkey))) as sha1_hub_custkey,
        sha1(concat(UPPER(TRIM(c_name)),UPPER(TRIM(c_address)),UPPER(TRIM(c_phone)),UPPER(TRIM(c_mktsegment)))) as hash_diff,
        current_timestamp as load_ts,
        "Customer Source" as source,
        c_custkey,
        c_name,
        c_address,
        c_nationkey,
        c_phone,
        c_acctbal,
        c_mktsegment,
        c_comment
    FROM STREAM(LIVE.raw_customer)

生の顧客ビューが作成されたら、以下のコードサンプルを用いて顧客のハブとサテライトをそれぞれ作成します。Delta Live Tablesでは、CONSTRAINT valid_sha1_hub_custkey EXPECT (sha1_hub_custkey IS NOT NULL) ON VIOLATION DROP ROWのようなデータ品質のエクスペクテーションを簡単にセットアップすることができ、エクスペクテーションによって定義されたデータ品質問題をパイプラインがどのようにハンドリングするのかを定義するために活用することができます。ここでは、適正なビジネスキーを持たないすべての行を削除します。

-- create hub customer table from the raw customer view
CREATE OR REFRESH STREAMING LIVE TABLE hub_customer(
  sha1_hub_custkey        STRING     NOT NULL,
  c_custkey               BIGINT     NOT NULL,
  load_ts                 TIMESTAMP,
  source                  STRING
  CONSTRAINT valid_sha1_hub_custkey EXPECT (sha1_hub_custkey IS NOT NULL) ON VIOLATION DROP ROW,
  CONSTRAINT valid_custkey EXPECT (c_custkey IS NOT NULL) ON VIOLATION DROP ROW
)
COMMENT " HUb CUSTOMER TABLE"
AS SELECT
      sha1_hub_custkey,
      c_custkey,
      load_ts,
      source
   FROM
      STREAM(live.raw_customer_vw)
-- create satellite customer table from raw customer view 
CREATE OR REFRESH STREAMING LIVE TABLE sat_customer(
  sha1_hub_custkey        STRING    NOT NULL,
  c_name                  STRING,
  c_address               STRING,
  c_nationkey             BIGINT,
  c_phone                 STRING,
  c_acctbal               DECIMAL(18,2),
  c_mktsegment            STRING,
  hash_diff               STRING    NOT NULL,
  load_ts                 TIMESTAMP,
  source                  STRING    NOT NULL
  CONSTRAINT valid_sha1_hub_custkey EXPECT (sha1_hub_custkey IS NOT NULL) ON VIOLATION DROP ROW
)
COMMENT " SAT CUSTOMER TABLE"
AS SELECT
      sha1_hub_custkey,
      c_name,
      c_address,
      c_nationkey,
      c_phone,
      c_acctbal,
      c_mktsegment,
      hash_diff,
      load_ts,
      source
   FROM
      STREAM(live.raw_customer_vw)

ほかのオブジェクトのハブとサテライトは同じような方法でロードされます。リンクテーブルに関して、raw_orders_vwをベースとしてlnk_customer_ordersを作成する例を示します。

-- create customer orders table from the raw orders view
CREATE OR REFRESH STREAMING LIVE TABLE lnk_customer_orders
(
  sha1_lnk_customer_order_key     STRING     NOT NULL ,  
  sha1_hub_orderkey               STRING ,
  sha1_hub_custkey                STRING ,
  load_ts                         TIMESTAMP  NOT NULL,
  source                          STRING     NOT NULL 
)
COMMENT " LNK CUSTOMER ORDERS TABLE "
AS SELECT
      sha1_lnk_customer_order_key,
      sha1_hub_orderkey,
      sha1_hub_custkey,
      load_ts,
      source
   FROM
       STREAM(live.raw_orders_vw)

ビジネスVault

生のVaultでハブ、サテライト、リンクが作成されたら、それらをベースとしてビジネスVaultオブジェクトを作成できるようになります。これは、後段のステージで容易に利用できるように、データオブジェクトに追加のビジネスルールや変換ルールを適用するというものです。以下に、ビジネスVaultにおける注文オブジェクトの追加情報としてorder_priority_tierが追加されるsat_orders_bvの構築例を示します。

-- create satellite order table in business vault from the satellite orders table in raw vault 
CREATE OR REFRESH LIVE TABLE sat_orders_bv
(
  sha1_hub_orderkey         STRING     NOT NULL ,  
  o_orderstatus             STRING ,
  o_totalprice              decimal(18,2) ,
  o_orderdate               DATE,
  o_orderpriority           STRING,
  o_clerk                   STRING,
  o_shippriority            INT,
  order_priority_tier       STRING,
  source                    STRING    NOT NULL
  
)
COMMENT " SAT Order Business Vault TABLE "
AS SELECT
          sha1_hub_orderkey     AS sha1_hub_orderkey,
          o_orderstatus         AS o_orderstatus,
		  o_totalprice          AS o_totalprice,
          o_orderdate           AS o_orderdate,
          o_orderpriority       AS o_orderpriority,
		  o_clerk               AS o_clerk,
          o_shippriority        AS o_shippriority,
		  CASE WHEN o_orderpriority IN ('2-HIGH', '1-URGENT') AND o_totalprice >= 225000 THEN 'Tier-1'
               WHEN o_orderpriority IN ('3-MEDIUM', '2-HIGH', '1-URGENT') AND o_totalprice BETWEEN 120000 AND 225000 THEN 'Tier-2'   
			   ELSE 'Tier-3'
		  END order_priority_tier,
          source
   FROM
       live.sat_orders

データマート

最後に、後段のレイヤーでの利用を容易にするためのData VaultのPoint-in-Timeビューとデータマートにcustomerをロードします。ここでのメインのフォーカスは、使いやすさと読み込み性能の改善です。多くのシンプルなテーブルにおいては、ハブやサテライトの上にビューを作成するだけで十分ですが、最終レイヤーにおけるディメンショナルモデルのような適切なスタースキーマをロードすることも可能です。以下に、ビューdim_customerとして顧客のディメンションを作成し、クエリーをシンプルにするために、このビューを他の人が活用できるようにする例を示します。

-- create customer dimension as view in data mart from the hub and satellite customer table, ref nation and ref region table
CREATE LIVE VIEW dim_customer
       AS
       SELECT 
             sat.sha1_hub_custkey      AS dim_customer_key,
	         sat.source                AS source,                  
	         sat.c_name                AS c_name ,             
	         sat.c_address             AS c_address ,             
	         sat.c_phone               AS c_phone ,              
	         sat.c_acctbal             AS c_acctbal,             
	         sat.c_mktsegment          AS c_mktsegment,                          
	         sat.c_nationkey           AS c_nationkey,  
             sat.load_ts               AS c_effective_ts,
	         -- derived 
	         nation.n_name             AS nation_name,
	         region.r_name             AS region_name
	     FROM LIVE.hub_customer hub
         INNER JOIN LIVE.sat_customer sat
           ON hub.sha1_hub_custkey = sat.sha1_hub_custkey
	     LEFT OUTER JOIN LIVE.ref_nation nation
	       ON (sat.c_nationkey = nation.n_nationkey)
	     LEFT OUTER JOIN LIVE.ref_region region
	       ON (nation.n_regionkey = region.r_regionkey)

Data Vaultにおけるよくある問題の一つは、特に多くのテーブルの属性を必要とする複雑なクエリーやファクトが必要な際に、多すぎるjoinを行う結果になってしまうことです。Databricksにおける推奨は、毎回再構築する必要がないようにテーブルを事前にjoinし、必要に応じて計算したメトリクスを保存するというものです。複数のjoinをベースとしたファクトテーブルfact_customer_orderを作成し、ビジネスユーザーが繰り返すクエリーで使えるようにテーブルに格納する例を以下に示します。

-- create fact customer order table in data mart from the lnk_customer_orders, dim_order, dim_customer, ref_nation and ref_region
CREATE OR REFRESH LIVE TABLE fact_customer_order
       AS
       SELECT 
           dim_customer.dim_customer_key,
           dim_orders.dim_order_key,
           nation.n_nationkey     AS dim_nation_key,
           region.r_regionkey     AS dim_region_key,
           dim_orders.o_totalprice AS total_price,
           dim_orders.o_orderdate  AS order_date
       FROM LIVE.lnk_customer_orders lnk
       INNER JOIN LIVE.dim_orders dim_orders
           ON lnk.sha1_hub_orderkey = dim_orders.dim_order_key
       INNER JOIN LIVE.dim_customer dim_customer
           ON lnk.sha1_hub_custkey = dim_customer.dim_customer_key
	   LEFT OUTER JOIN LIVE.ref_nation nation
           ON dim_customer.c_nationkey = nation.n_nationkey
       LEFT OUTER JOIN LIVE.ref_region region
           ON nation.n_regionkey = region.r_regionkey

Delta Live Tableパイプラインのセットアップ

上述したすべてのコードはこちらにあります。お客様はDelta Live Tablesを用いて全体のデータフローを容易にオーケストレーションすることができ、どのように自分の環境でパイプラインをセットアップしたのかの設定は以下の通りであり、必要であれば、ご自身のワークフローでDelta Live Tableパイプラインをセットアップするのかの詳細については、DLTの設定をご覧下さい。

{
    "id": "6835c6ad-42a2-498d-9037-25c9d990b380",
    "clusters": [
        {
            "label": "default",
            "autoscale": {
                "min_workers": 1,
                "max_workers": 5,
                "mode": "ENHANCED"
            }
        }
    ],
    "development": true,
    "continuous": false,
    "channel": "CURRENT",
    "edition": "ADVANCED",
    "photon": false,
    "libraries": [
        {
            "notebook": {
                "path": "/Repos/prod/databricks-lakehouse/lakehouse-buildout/data-vault/TPC-DLT-Data-Vault-2.0"
            }
        }
    ],
    "name": "DLT Data Vault",
    "storage": "dbfs:/pipelines/6835c6ad-42a2-498d-9037-25c9d990b380",
    "configuration": {
        "pipelines.enzyme.mode": "advanced",
        "pipelines.enzyme.enabled": "true"
    },
    "target": "l

4. まとめ

この記事では、Data Vaultのコアのコンセプトと、Delta Live Tablesを用いてどのように実装するのかを学びました。Databricksレイクハウスプラットフォームは高信頼、効率的、スケーラブルな方法で様々なモデリング手法をサポートしますが、我々のサーバレスデータウェアハウスであるDatabricks SQLによって、レイクハウス上ですべてのBI、SQLアプリケーションを実行することができます。上述した例の完全なワークフローに関しては、こちらのサンプルをご覧ください。

関連記事もチェックしてみてください:

レイクハウスでのディメンションモデルの構築をスタートする

14日間のDatabricks無料トライアル

Databricksクイックスタートガイド

Databricksクイックスタートガイド

Databricks無料トライアル

Databricks無料トライアル

3
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?