0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Delta Lakeのデータレイアウト

Last updated at Posted at 2024-11-15

DatabricksでSparkとDelta Lakeワークロードを最適化するための包括的ガイドのコンテンツです。

Comprehensive Guide to Optimize Data Workloads | DatabricksのセクションUnderlying Data Layoutの翻訳です。

  • 本書は著者が手動で翻訳したものであり内容の正確性を保証するものではありません。正確な内容に関しては原文を参照ください。
  • 2023年時点の内容です。一部情報が古いものがあります。

Deltaテーブルの内部には、データを格納するParquetファイルが存在します。また、Parquetファイルのすぐ隣にはDeltaのトランザクションログを格納する _delta_log という名前のサブディレクトリが含まれています。これらのParquetファイルのサイズは、クエリー性能において非常に重要です。

ビッグデータの世界において、小さなファイル問題はよく知られている問題です。テーブルの背後のファイルが小さく大量になると、小さいファイルのオープン、クローズのためだけに時間を要するようになった結果、読み込みのレイテンシーで苦しむことになります。

この問題を回避するには、ワークロードや特定のユースケースに基づく、ケースバイケースの考え方で設定可能な16MBから1GBの間のファイルサイズにすることがベストとなります。

Unity Catalogでカタログ化されるマネージドテーブルを作成するために、Databricksランタイム11.3以降を使っているのであれば、Databricksがオートチューニング機能の一部として、バックグラウンドでDeltaテーブルのターゲットファイルサイズの設定やファイルサイズの最適化を自動で行うので、これらのことを心配する必要はありません。将来的には、外部テーブルでもこの機能を活用できるようになります。

他のケースにおいては、適切なファイルサイズを得るために、特定のSparkジョブを用いて手動でファイルをコンパックとにする必要があるかもしれませんが、Deltaはすぐに利用できるビンパッキングの機能(コンパクション)を提供しているので、このようなことは不要です。Deltaでは、以下で説明するように2つの方法でビンパッキングを達成することができます:

1. Optimize & Z-order

OPTIMIZEは、ファイルサイズが最大1GB(設定可能です)になるようにファイルをコンパクトにします。このコマンドは基本的に、設定したサイズ(設定しない場合にはデフォルトの1GB)にファイルをサイジングしようとします。また、選択したカラムによってデータを物理的にソートし、コロケーションするZORDERとOPTIMIZEコマンドを組み合わせることができます。

OPTIMIZE table_name [WHERE predicate]
[ZORDER BY (col_name1 [, ...] ) ]

  • Z-orderingでは常にカーディナリティの高いカラム(注文テーブルにおけるcustomer_idなど)を選ぶようにしましょう。日付からむは通常カーディナリティの低いカラムなので、Z-orderで用いるべきではありません。それらはパーティショニングのカラムに適しています(しかし、テーブルを常にパーティショニングする必要はありません。詳細は以下のパーティショニングのセクションをご覧ください)。Z-orderにおいては、後段のクエリーにおけるフィルター句やjoinキーで頻繁に用いられるカラムを選択しましょう。
  • Z-orderingで多数のカラムを指定すると、Z-orderの効果を劣化させるので、4カラムより多いカラムを指定しないようにしましょう。
  • ジョブ自身でOPTIMIZEコマンドを実行するのではなく、個別のジョブクラスターで実行しましょう。さもないと、対応するジョブのSLAにインパクトを与える可能性があります。
  • OPTIMIZEコマンドはコンピュート重視のオペレーションなので、コンピュート最適化インスタンスファミリーを使うことをお勧めします。
  • 後段のクエリーパフォーマンスを改善するために、適切なファイルレイアウトを維持するために、(ZORDERの有無に関係なく)OPTIMIZEコマンドは一日一回のように定期的に実行すべきです。

2. Auto optimize

Auto optimizeは、その名前が示すように、Deltaテーブルの個別の書き込みの処理の過程で小さなファイルを自動でコンパクトにし、デフォルトでは128MBのファイルサイズにしようと試みます。2つの機能を提供しています:

1. Optimize Write

Optimize Writeは、実際のデータに基づいて、Apache Sparkのパーティションサイズを動的に最適化し、それぞれのテーブルパーティションとして128MBのファイルを書き出そうとします。これは、同じSparkジョブの中で行われます。

2. Auto Compact

Sparkジョブの完了後、Auto Compactは128MBを達成するために、さらにファイルを圧縮できないかをチェックする新規のジョブを起動します。

-- Table properties
delta.autoOptimize.optimizeWrite = true 
delta.autoOptimize.autoCompact = true

-- In Spark session conf for all new tables
set spark.databricks.delta.properties.defaults.autoOptimize.optimizeWrite = true
set spark.databricks.delta.properties.defaults.autoOptimize.autoCompact = true

  • 満足できるファイルサイズを得るために手動で(ZORDERの有無に関係なく)OPTIMIZEコマンドを活用していない場合には、常にoptimizeWriteテーブルプロパティを有効化しましょう。Optimize Writeでは、ターゲットテーブルのパーティションの構造によってデータのシャッフルが必要になることを覚えておきましょう。このシャッフルは通常追加のコストを発生させます。しかし、書き込みの際のスループットのゲインは、シャッフルのコストを補うものとなるでしょう。そうでない場合でも、データにクエリーする際のスループットのゲインは依然としてこの機能を価値あるものにするに違いありません。
  • あなたのジョブに厳密なSLAが無いのであれば、Deltaのビンパッキングをさらに活用するためにautoCompactテーブルプロパティを有効化することができます。

3. パーティショニング

パーティショニングによってSparkはスキャン時に不要なデータパーティション(サブフォルダー)の多くをスキップできるので、フィルタリングやjoin、集計、mergeでパーティションカラムを指定することでクエリーを高速化することができます。

  • Databricksでは、1TB以下のテーブルをパーティショニングすることはお勧めしておらず、取り込み時のクラスタリングが自動で動作するままにしましょう。この機能はデフォルトで全てのテーブルで有効化されており、データが取り込まれた順序に基づいてデータをクラスタリングします。
  • それぞれのパーティションが最低でも1GBになることが予測されるのであれば、カラムでパーティションを作成することができます。
  • 年や日のように、常にカーディナリティの低いカラムをパーティションカラムとして選択しましょう。
  • パーティションカラムを選択する際に、Deltaのジェネレーテッドカラムを活用することもできます。ジェネレーテッドカラムは、Deltaテーブルの他のカラムに対するユーザー指定の関数に基づいて自動で値が生成される特殊なタイプのカラムです。

4. ファイルサイズのチューニング

Auto-optimize(128MB)やOptimize(1GB)によってターゲットとされるデフォルトのファイルサイズが適していない場合、あなたの要件に基づいてファインチューンすることができます。delta.targetFileSizeテーブルプロパティを用いることで、ターゲットのファイルサイズを設定することができ、Auto-optimizeやOptimizeは指定されたサイズを達成するようにビンパッキングを行います。

-- Table properties
delta.targetFileSize = 134217728

また、手動でターゲットファイルサイズを設定したく無いのであれば、delta.tuneFileSizesForRewritesテーブルプロパティをオンにすることで、このタスクをDatabricksに委任することができます。このプロパティがtrueに設定されると、Databricksはワークロードに基づいて自動でファイルサイズを調整します。例えば、Deltaテーブルで多数のマージを行う場合、マージオペレーションを高速にするために、1GBより遥かに小さいサイズにファイルが自動で調整されます。

-- Table properties
delta.tuneFileSizesForRewrite = true

はじめてのDatabricks

はじめてのDatabricks

Databricks無料トライアル

Databricks無料トライアル

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?