0
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

VACUUMを用いてDeltaテーブルの未使用データを削除する

Posted at

Remove unused data files with vacuum | Databricks on AWS [2022/11/3時点]の翻訳です。

本書は抄訳であり内容の正確性を保証するものではありません。正確な内容に関しては原文を参照ください。

テーブルに対してvacuumコマンドを実行することで、保持期間よりも古くて、Deltaテーブルによって参照されていないファイルを削除することができます。vacuumは自動では起動されません。ファイルに対するデフォルトの保持期間は7日間です。この挙動を変更するには、Configure data retention for time travelを参照ください。

重要!

  • vacuumはDelta Lakeによって管理されていないディレクトリのすべてのファイルを削除し、_で始まるディレクトリは無視します。Deltaテーブルのディレクトリ内の構造化ストリーミングのチェックポイントのような追加のメタデータを格納している場合には、_checkpointsのようなディレクトリ名を使ってください。
  • vacuumはログファイルではなくデータファイルのみを削除します。ログファイルは、チェックポイントオペレーションの後に自動かつ非同期的に削除されます。ログファイルのデフォルトの保持期間は30日であり、SQLメソッドALTER TABLE SET TBLPROPERTIESdelta.logRetentionDurationプロパティを通じて設定することができます。Delta table properties referenceをご覧ください。
  • vacuumを実行した後は、保持期間よりも古いバージョンにタイムトラベルできなくなります。

注意
ディスクキャッシュが有効化されている場合、クラスターにvacuumで削除されたParquetファイルのデータが含まれる場合があります。このため、ファイルが削除された以前のテーブルバージョンのデータにクエリーできる場合があります。クラスターを再起動することで、クラスターからキャッシュデータが削除されます。Configure the disk cacheをご覧ください。

VACUUMのサンプル

SQL
VACUUM eventsTable   -- vacuum files not required by versions older than the default retention period

VACUUM '/data/events' -- vacuum files in path-based table

VACUUM delta.`/data/events/`

VACUUM delta.`/data/events/` RETAIN 100 HOURS  -- vacuum files not required by versions more than 100 hours old

VACUUM eventsTable DRY RUN    -- do dry run to get the list of files to be deleted

Spark SQL構文の詳細については、VACUUMをご覧ください。

Scala、Java、Python構文の詳細については、Delta Lake API documentationをご覧ください。

どの程度の頻度でVACUUMを実行すべきですか?

過度なクラウドデータストレージのコストを削減するために、すべてのテーブルに対してVACUUMを定期的に実行することをお勧めします。vacuumのデフォルト保持期間は7日間です。閾値を高く設定すると、より長いテーブル履歴にアクセスすることができますが、格納されるデータファイルの数が増加し、クラウドプロバイダーのストレージコストを増加させることになります。

低い保持期間の閾値でDeltaテーブルをVACUUMできないのはなぜですか?

警告!
テーブルに対するリーダー、ライターの同時実行によって、古いスナップショットやコミットされていないファイルが使用されている場合があるので、保持期間の最小値は7日間にすることをお勧めします。VACUUMがアクティブなファイルをクリーンアップすると、同時実行されているリーダーが失敗することがあり、さらに悪いケースでは、VACUUMがコミットされていないファイルを削除するとテーブルが破損する場合があります。最長の同時実行トランザクション期間や、テーブルに対する最新の更新に対してすべてのストリームが遅延する最長期間よりも長い期間を選択すべきです。

Delta Lakeには、危険なVACUUMコマンドの実行を防ぐ安全チェック機能があります。指定しようとしている保持期間よりも長い時間実行されるオペレーションが存在しないことが確実である場合には、Spark設定spark.databricks.delta.retentionDurationCheck.enabledfalseに設定することで、安全チェック機能をオフにすることができます。

監査情報

VACUUMのDeltaのトランザクションログへのコミットに監査ログを含めることができます。DESCRIBE HISTORYを用いて、監査イベントにクエリーを行うことができます。

監査情報をキャプチャするには、spark.databricks.delta.vacuum.logging.enabledを有効化します。複数ワークスペースの書き込みにおいてS3で提供される一貫性保証が限定的なため、AWS S3ノエテーブルにおける監査ログはデフォルトでは有効化されません。S3で有効化する際には、複数ワークスペースの書き込みがワークフローに含まれていないことを確認してください。処理に失敗するとデータ損失につながる場合があります。

Databricks 無料トライアル

Databricks 無料トライアル

0
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?