Help us understand the problem. What is going on with this article?

Apache Spark SQLで小さい処理なのに長いコンソール出力を抑える(パーティション数を減らす)

More than 3 years have passed since last update.

Apache Sparkに昨日入門しました。

spark-shell越しにSQLで色々試していて、小さな処理なのにやけに長いコンソール出力がある上にちょっと遅いなと思っていたのですが、解決したのでメモ。

SparkはRDD(データセット)を分散システムで効率よく扱うためにデータをパーティション分割するのですが、この分割数がデフォルトで200になっているようです。
このため、シングルノードで簡単な処理を実行するにしても200個に分割したデータそれぞれに対する処理を起動する必要が生まれてしまい、コンソール出力が増え、処理も少し遅くなります。

パーティション数を設定するには、下記のようにspark.sql.shuffle.partitionsプロパティを設定すればよいようです。

sqlContext.sql("set spark.sql.shuffle.partitions=1") 

シングルノードで開発しているときなどはパーティション数を減らしておいた方が便利そうですね。

Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
Comments
No comments
Sign up for free and join this conversation.
If you already have a Qiita account
Why do not you register as a user and use Qiita more conveniently?
You need to log in to use this function. Qiita can be used more conveniently after logging in.
You seem to be reading articles frequently this month. Qiita can be used more conveniently after logging in.
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
ユーザーは見つかりませんでした