0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

ファイルイベントを用いたDatabricksのAuto Loader - 大規模ファイル発見をシンプルに

0
Posted at

Auto Loader with File Events - Simplified File Dis... - Databricks Community - 151203の翻訳です。

本書は著者が手動で翻訳したものであり内容の正確性を保証するものではありません。正確な内容に関しては原文を参照ください。

autoloader-file-events-banner.png

サマリー

  • Auto Loaderとファイルイベントによって、ディレクトリ一覧のシンプルさと従来の通知パフォーマンスのどちらかを選択する必要性を排除することで、どのようにクラウドストレージの取り込み処理をシンプルにするのかを学びます。
  • 権限の簡素化、クラウドプロバイダーの制限の緩和、自動リソース管理を含む、従来の通知と比較したファイルイベントのアーキテクチャ上の違いとメリットを明らかにします。
  • 移行する際のファイルイベントの有効化方法、ファイルイベントによる最適なファイル検知を達成するためのベストプラクティスを学びます。

Databricksのお客様は、大規模なクラウドストレージにアクセスするためにAuto Loaderを活用しています。そして、今ではファイルイベントがAuto Loaderを次のレベルに引き上げます - シンプルなセットアップ、自動化されたライフサイクル管理、シームレスなスケーラビリティと共にインクリメンタルかつ通知ベースの処理によるスピードと効率性を提供します。結果として、より高速な取り込み、より少ない運用のオーバーヘッド、あなたのデータの成長に合わせて成長するインフラストラクチャを手に入れることができます。

クラウドストレージ取り込みの課題

歴史的に、Databricksのお客様はAuto Loaderの2つのモードのいずれかを選択してきました。ディレクトリ一覧はセットアップが簡単ですが、すべての新規ファイルを特定するためにクラウドストレージのディレクトリを繰り返しスキャンする必要があるので、ファイルボリュームが大きくなると高コストかつ遅くなる場合があります。従来の通知はより効率的ですが、通知リソース(SQSやEvent Gridなど)のセットアップのための権限を必要とし、それらはUnity Catalog経由で許可される必要があります。

また、クラウドプロバイダーは単一のストレージコンテナあたりのイベント通知の数に制限を設けています。従来の通知を設定したそれぞれのAuto Loaderジョブは自身のキュー/サブスクリプションを必要とするので、AWS/GCPでは100ジョブ、Azureでは500ジョブのキャップが存在します。最後に、お客様はストリームが作成、削除されるとそれらのリソースのライフサイクルを手動で管理しなくてはなりません。

これらのパイプラインをオーケストレートするには、多くのお客様は新規ファイルがクラウドストレージに到着するとパイプラインのジョブを自動でスタートするファイル到着トリガーを使用しています。そいかし、ファイル到着トリガーは歴史的にディレクトリ一覧に依存しているので、10,000オブジェクト以内のクラウドストレージディレクトリのみをサポートしています。

ファイルイベントを用いたAuto Loaderのご紹介

ファイルイベントは、あなたのためにクラウド通知のインフラストラクチャを管理することでこれらのハードルを排除します - ディレクトリ一覧のシンプルさと従来の通知のパフォーマンスを提供します。また、ファイルイベントによってスケーラブルなファイル到着トリガーが可能となり、すべてのサイズのクラウドストレージディレクトリをベースとして自動でジョブを実行できるようになります。

外部ロケーションでファイルイベントが有効化されると、Databricksマネージドのサービスが通知リソースを作成し、通知を読み込み、キャッシュします。Auto Loaderは前回の処理ファイルから再開する効率的なAPIを用いて、このキャッシュから新規ファイルをインクリメンタルに特定します。

このサービスはUnity Cataloggで許可された権限を使用するので、ユーザーは通知のインフラストラクチャを設定したり、複雑なパラメータを調整したり、キュートサブスクリプションのライフサイクルを管理する必要がありません。そして、外部ロケーション全体に対してそれぞれのAuto Loaderストリームではなく単一のキューを用いることことで、バケット単位の通知制限を容易に回避できます。

ハイレベルなアーキテクチャデザインの比較

blog-1.png
従来の通知のハイレベルなAuto Loaderアーキテクチャ

従来の通知では、それぞれのAuto Loaderストリームあるいはジョブには個別のサブスクリプションとキューが必要となります。このセットアップは、これらすべてのストリームが同じストレージコンテナやバケットを指していたとしても必要となります。

blog-2.png
ファイルイベントのハイレベルなAuto Loaderアーキテクチャ

ファイルイベントアーキテクチャのディープダイブ

cloudFiles.useManagedFileEventsを有効化すると、システムが取り込みの面倒な作業を自動化します。

  1. セットアップ: 外部ロケーションでファイルイベントを有効化すると、Databricksは必要なクラウドサブスクリプションとキューを作成します。
    1. デフォルトですべての新規外部ロケーションではファイルイベントが有効化されています。外部ロケーションでファイルイベントを有効化する際、そのロケーションを支えるストレージ資格情報には、クラウドサブスクリプションとキューを作成する権限が必要です。必要な権限が許可されていない場合、ユーザーはエラーを受け取ります。必要な権限についてはこちらをご覧ください。
    2. シンプルにするために、Databricksでは「マネージド」キュー(すべてをセットアップするためにストレージ資格情報にユーザーが権限を付与します)を使うことをお勧めしています。しかし、ご自身のキューを持ち込むことも可能です - この場合、ストレージ資格情報にはキューから読み込みを行うための権限が必要になります。
  2. ファイルの公開: これは、あなたのクラウドストレージロケーションに取り込まれ、処理される必要のあるファイルです。
  3. 通知の公開: ファイルイベントを有効化すると、通知が公開されるサブスクリプションサービス(SNSやEvent Grid)が作成されます。
  4. キューへの公開: サブスクリプションサービスのイベントはキューに公開されます。
  5. ファイルイベントの取得: Databricksのファイルイベントサービスがキューからメッセージを読み込みます。
  6. ファイルメタデータの格納: キューから読み込まれたメッセージがキャッシュされます。
  7. オブジェクトの一覧: cloudFiles.useManagedFileEventstrueに設定されてAuto Loaderストリームが実行されると、ファイルイベントキャッシュからイベントをインクリメンタルに読み込み、処理します。
    1. Auto Loaderストリームが初回実行されると、既存ファイルのリストをキャッシュするためにロードパスのディレクトリ一覧を実行します。以降はインクリメンタルに実行されます。
    2. 将来的にファイルが損なわれないようにするために、外部ロケーションでは定期的にディレクトリ一覧も実行されます。(これは自動で管理されるので、Auto Loaderの設定cloudFiles.backfillIntervalは不要となり、この設定は無視されます。)

従来の通知とファイルイベントの比較

機能 従来の通知 ファイルイベント
クラウドインフラストラクチャ それぞれのAuto Loaderストリームが自身専用のクラウドツーチリソースをセットアップ(ストリームごとのSNSトピックやSQSキューなど)。 Databricksが外部ロケーションごとに単一の通知リソース(キュー/サブスクリプション)をセットアップ。
通知サービス Auto Loaderストリームが自身専用のクラウドキューから直接読み込み。 Auto Loaderストリームが、単一のクラウドキューから供給されるDatabricksファイルイベントサービスのキャッシュから読み込み。
クラウドリソースの制限 ストレージコンテナごとの通知リソース数に制限(コンテナ/アカウントごとに100/500など)を適用。一つのストリームが一つのキューにマッピング。 外部ロケーションごとに単一のキューを用いることでクラウドの制限を回避。多数のストリームを単一のキューにマッピング可能。
権限 専用のクラウド通知リソースを作成、管理するためにそれぞれのストリームに必要な権限を設定。 外部ロケーション向けにUnity Catalogのストレージ資格情報を通じて必要な権限を付与。ストリーム御tに追加の権限は不要。
ライフサイクル管理 ユーザーは、ストリームが削除、フルリフレッシュされた際に度々、通知リソース(キュー/サブスクリプション)の管理が必要。 Databricksが自動でクラウド通知リソースのライフサイクルを管理。

実践: ファイルイベントを用いたAuto Loaderがどのようにお客様を支援するのか

パフォーマンス & シンプルさ

  • パフォーマンスがシンプルさと出会う: 従来の通知の効率性とディレクトリ一覧のシンプルさで悩む必要はもうありません。ファイルイベントとAuto Loaderが両方を提供します。
  • 高コストで遅いディレクトリ一覧の排除: 今現在Auto Loaderをディレクトリ一覧モードで使っているのであれば、ファイルイベントに移行することで非常に大きなパフォーマンス改善を得られるはずです。これは、Auto Loaderストリームが新規ファイルを特定するためにロードパスに対して定期的にディレクトリ一覧を行う必要がないためです。
  • ファイル検知にチューニング不要: ファイル発見に関する様々な設定をチューニングする必要がありません(従来の通知におけるfetchParallelism、backfillIntervalなど)。

権限

  • ストリームごとの追加の権限が不要: 初回のAuto Loaderストリームを実行するサービスプリンシパルやユーザーはサブスクリプション/キューを作成する権限を持つ必要はありません。読み込みを行う入力データパスに対する権限のみが必要です。

運用のオーバーヘッド

  • ストリームごとではなく外部ロケーションごとに一つのキュー: 従来の通知と異なり、それぞれのAuto Loaderストリームごとにキューを作成する必要はありません。これによって、ストレージコンテナに対する通知の制限にヒットすることを回避する助けとなります。外部ロケーションごとに一つのキューとストレージイベントサブスクリプションをセットアップするだけです。
  • 自動クラウドリソースライフサイクル管理: クラウドで作成したイベントサブスクリプションやキューのライフサイクル(Auto Loaderストリームが削除、完全リフレッシュされた際など)をそれほど心配する必要はありません。これらのリソースは、(ストレージ資格情報に権限があれば)外部ロケーションでファイルイベントが無効化されると自動で削除されます。

従来の通知からファイルイベントに移行する方法に関してはこちらをご覧ください。

ファイルイベントの設定: クイックガイド

  • すべての新規外部ロケーションはデフォルトでファイルイベントが有効化されています。既存の外部ロケーションでは、編集ページや新規外部ロケーション作成ページで 「高度なオプション」 を選択します。
    screenshot-1.png
  • ファイルイベントタイプを選択します。あなたのためにDatabricksにサブスクリプションをセットアップさせたい場合には、「Automatic」(推奨)を選択します。自分でキューを設定したのであれば、「Provided」を使用します。作成をクリックします。
  • 最後に、ファイルイベントが正しく有効化されたことを確認するために、数秒後に外部ロケーションページで「Test connection」をクリックします。
    screenshot-2.png

こちらがファイルイベントを用いたAuto Loaderストリームの例となります:

stream_df = (spark.readStream.format("cloudFiles")
 .option("cloudFiles.format", "json")
 .option("cloudFiles.maxFilesPerTrigger", 5000)
 .option("cloudFiles.schemaLocation", f'{chekpoint_path}/schema')
 .option("cloudFiles.useManagedFileEvents", True)
 .load(f'{volume_path}')
 .writeStream
 .queryName("file-events-stream")
 .option("checkpointLocation", f"{chekpoint_path}")
 .trigger(processingTime='30 seconds')
 .table(f"{target_table}")
)

現在Spark宣言型パイプラインを使っており、STREAMING TABLEを含むパイプラインがすでにあるのであれば、cloudFiles.useManagedFileEventsオプションを含むように更新します。

CREATE OR REFRESH STREAMING TABLE <table-name>
AS SELECT <select clause expressions>
    FROM cloud_files("abfss://path/to/external/location/or/volume",
                     "<format>", 
                      map(
			        ...
                          "cloudFiles.useManagedFileEvents", "True",
                          ...))

Spark設定としてこれを設定します:

spark.conf.set("spark.databricks.cloudFiles.useManagedFileEvents", "true")

ベストプラクティス

同じ外部ロケーションで複数のサブディレクトリに対するボリュームを作成しましょう。

  • 特定の外部ロケーションに複数のサブディレクトリがあり、それらのサブディレクトリそれぞれからデータを取り込む複数のAuto Loaderストリームがあるのであれば、ファイルイベントでより高速なファイル特定を行うようにこれらのサブディレクトリのそれぞれに対してボリュームを作成、使用しましょう。 最適なファイル検出のためにボリュームを使用するをご覧ください。
  • 注意: 外部ロケーション全体から読み込みを行う単一のAuto Loaderの場合には適用されません。

取り込みジョブを最適化するためにファイル到着トリガーを活用

  • ファイル到着トリガーやスケジュールを用いて、継続的に実行するためにAuto Loaderジョブを起動することができます。
  • ファイル到着トリガーは、クラウドストレージに新規ファイルが出現した際にのみジョブを実行するので、多くの場合ベストな選択肢となります - あなたのインクリメンタルな取り込みを補完するための真にイベント駆動のオーケストレーションを実現します。
  • ファイルイベントによってファイル到着トリガーは劇的に高性能になります:
ファイルイベントが無効化 ファイルイベントを有効化
ファイル追跡の制限 ディレクトリあたり最大1万ファイル 無制限
ワークスペースあたりのファイル到着トリガーの数 最大50 無制限

まとめ

  • 現在ディレクトリ一覧のAuto Loaderを使っているのであれば、ファイルイベントへの移行をお勧めします。
  • 従来の通知モードのAuto Loaderを使っており、秒間2000ファイル以下の取り込みであるならば、ファイルイベントへの移行をお勧めします。
  • ファイルイベントはAWS、Azure、GCPでGAとなっています。

はじめてのDatabricks

はじめてのDatabricks

Databricks無料トライアル

Databricks無料トライアル

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?