LoginSignup
0
0

More than 1 year has passed since last update.

Apache Spark 2.4における複雑なデータ型向けの新たなビルトイン関数と高階関数のご紹介

Last updated at Posted at 2022-09-28

Introducing New Built-in and Higher-Order Functions for Complex Data Types in Apache Spark 2.4 - The Databricks Blogの翻訳です。

本書は抄訳であり内容の正確性を保証するものではありません。正確な内容に関しては原文を参照ください。

注意
2018年の記事です。

Apache Spark 2.4では、高階関数を含め、複雑な型(配列型など)を操作するための29の新たなビルトイン関数を導入します。

Spark 2.4以前では、複雑な型を直接操作するためには、2つの典型的なソリューションがありました。

  1. ネストされた構造を個々の行にexplodeし、何かしらの関数を適用し、再度構造を組み立てる
  2. ユーザー定義関数(UDF)

これらとは異なり、新たなビルトイン関数は複雑な型を直接操作し、高階関数は匿名のラムダ関数を用いてUDFと同じ様に複雑な値を操作することができますが、優れたパフォーマンスを提供します。

この記事では、いくつかの例を通じてこれらの新たなビルトイン関数をお見せし、複雑なデータ型をどの様に操作するのかを説明します。

典型的なソリューション

まず初めに、例を通じて典型的なソリューションを見ていきましょう。

オプション1 - ExplodeとCollect

以下の様に、配列を個々の行に分解するためにexplodeを使い、val + 1を評価し、配列を再構成するためにcollect_listを使います。

SQL
SELECT id,
       collect_list(val + 1) AS vals
FROM   (SELECT id,
               explode(vals) AS val
        FROM input_tbl) x
GROUP BY id

これは3つの理由からエラーが混入しやすく非効率的です。第一に、ユニークなキーを用いてグルーピングすることで、オリジナルの配列から配列が再構成されることを確実にするために注意しなくてはなりません。第二に、シャッフルオペレーションであるgroup-byが必要となります。シャッフルオペレーションは、オリジナルの配列と再構成された配列の要素の順序を維持することを保証しません。最後に、これはコストがかかるものです。

オプション2 - ユーザー定義関数

次に、Seq[Int]を受け取り、それぞれの要素に1を加算するScalaのUDFを使用します。

Scala
def addOne(values: Seq[Int]): Seq[Int] = {
  values.map(value => value + 1)
}
val plusOneInt = spark.udf.register("plusOneInt", addOne(_: Seq[Int]): Seq[Int])

あるいは、Python UDFを使います。その後に以下を実行します。

SQL
SELECT id, plusOneInt(vals) as vals FROM input_tbl

これはシンプルで高速で、正確性に関する落とし穴に苦しむことはありませんが、ScalaやPythonへのデータのシリアライズが高コストとなる場合があるため、依然として非効率的です。

以前のブログ記事で公開したノートブックのサンプルを確認することができます。

新たなビルトイン関数

それでは、複雑な型を直接操作するための新たなビルトイン関数を見ていきましょう。こちらのノートブックでそれぞれの関数をサンプルを列挙しています。それぞれの関数のシグネチャと引数では、配列の要素の型を表現するためのそれぞれの型であるTU、mapとvalueの型としてKVのアノテーションを行なっています。

高階関数

配列やmap型をさらに操作するために、匿名のラムダ関数と、引数としてラムダ関数を受け取る高階関数に対して、既知のSQL構文を使いました。

ラムダ関数の構文は以下の様になります。

 argument -> function body
  (argument1, argument2, ...) -> function body

シンボル->の左側では引数のリストを定義し、右側では引数を使う関数の本体と、新たな値を計算するための他の変数を定義します。

匿名のラムダ関数による変換

匿名のラムダ関数を使用するtransform関数のサンプルを見ていきましょう。

3つのカラム、integerのkey、integerの配列のvalues、integerの配列の配列であるnested_valuesを持つテーブルがあるものとします。

key values nested_values
1 [1, 2, 3] [[1, 2, 3], [], [4, 5]]

以下のSQLを実行します。

SQL
SELECT TRANSFORM(values, element -> element + 1) FROM data;

transform関数は配列に対してイテレーションし、ラムダ関数を適用することでそれぞれの要素に1を加算することで新たな配列を作成します。

また、ラムダ関数の中で引数に加えて他の変数を使用します。例えば、外部のコンテキストから得られるテーブルのカラムであるkeyを使います。

SQL
SELECT TRANSFORM(values, element -> element + key) FROM data;

深くネストされたカラム、この場合ではnested_valuesを操作したい場合には、ネストされたラムダ関数を使用することができます。

SQL
 SELECT TRANSFORM(
    nested_values,
    arr -> TRANSFORM(arr,
      element -> element + key + SIZE(arr)))
  FROM data;

外部のコンテキストから得られるテーブルのカラムや外部のラムダ関数の引数であるkeyやarrを内部のラムダ関数で使用することもできます。

これらに対応する典型的なソリューションとして同じ例をサンプルノートブックで確認することができ、ビルトイン関数向けのノートブックに他の高階関数のサンプルが含まれていることに注意してください。

まとめ

Spark 2.4では、複雑な型を操作するためのarray_unionarray_max/minのような24個の新たなビルトイン関数、transformfilterのような5個の高階関数を導入しました。これらの完全なリストとサンプルはこちらのノートブックに含まれています。何かしらの複雑な型を取り扱う際にはこれらを活用することを検討いただき、問題があればご連絡ください。

Alex Vayda, Bruce Robbins, Dylan Guedes, Florent Pepin, H Lu, Huaxin Gao, Kazuaki Ishizaki, Marco Gaido, Marek Novotny, Neha Patil, Sandeep SinghなどApache Sparkコミュニティの多くの人々の貢献に感謝の意を表します。

追加情報

高階関数、ビルトイン関数の詳細については以下のリソースを参照ください。

  1. 添付ノートブックを試す
  2. 以前の高階関数に関する記事を読む
  3. Spark + AI Summit Europe Talk on Higher-Order Functionsを視聴する

Databricks 無料トライアル

Databricks 無料トライアル

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0