0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Databricks の Lakehouse federation にて BigQuery をソースにしている場合に Databricks Runtime 16.1 以降のクラスターでは Spark Connector が利用される仕様に変更

Posted at

概要

Databricks にて Lakehouse federation を BigQuery をソースにしている場合に、Databricks Runtime 16.1 以降のクラスターでは Spark Connector が利用されることがドキュメントに記述されており、その動作仕様を確認しました。 Spark Connector と JDBC のどちらが利用されているかを確認する方法を共有します。

image.png

出所:BigQuery コネクタのアップグレード

2025年4月28日時点では、 Databricks SQL (Databricks SQL version 2025.15)では JDBC が利用されていました。

image.png

EXPLAIN 句による確認方法

Databricks 側で EXPLAIN 句により確認する方法

Databricks の EXPLAIN 句にて JDBC による接続なのか、 Spark Connector による接続なのかを確認できます。

%sql
EXPLAIN
SELECT * FROM bq_01_catalog.gc_test.test_table_02 WHERE id = 3;

Spark Connector が利用されている場合には、apache.spark.sql.connector等の記述があることを確認できます。

image.png

JDBC が利用されている場合には、JDBC等の記述があることを確認できます。

image.png

Google Cloud の Logs Explorer による確認方法

Google Cloud の Logs Explorer にて JDBC による接続なのか、 Spark Connector による接続なのかを確認できます。

timestamp >= "2025-04-28T07:41:00Z"
timestamp <= "2025-04-28T07:43:00Z"

Spark Connector が利用されている場合には、callerSuppliedUserAgentという項目にspark-bigquery-connectorではじまる値が確認できます。

image.png

JDBC が利用されている場合には、callerSuppliedUserAgentという項目にSimbaJDBCDriverforGoogleBigQueryではじまる値が確認できます。

image.png

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?