5
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Databricksリリースノート(毎日更新)

Last updated at Posted at 2024-12-14

DatabricksのリリースノートRSSに対して生成AIによる翻訳を行い、ユーザーへのインパクトを説明する文を生成しています。すべての処理は自動で行われています。

注意
翻訳やインパクトの説明文は生成AIによるものですので、詳細は原文を確認ください。

ダッシュボードのピボットテーブル、グリッド線、およびドリルスルー機能の強化

2025-10-16

  • ピボットテーブルでの動的なテキスト関数:ピボットテーブルで、条件付き書式設定のcontains()startswith()endswith()関数がサポートされるようになりました。詳細はテキスト関数を使用した条件付き書式設定を参照してください。
  • グリッドラインの切り替え:チャートでグリッドラインのオンとオフが切り替えられるようになりました。詳細はグリッドラインを参照してください。
  • ダッシュボードタグと認定(パブリックプレビュー):ワークスペース全体の整理、検索、検出を容易にするために、ダッシュボードとGenieスペースにタグを追加できるようになりました。タグ付けされた項目は検索用にインデックス化されるため、ユーザーが関連するダッシュボードやスペースをすばやく見つけやすくなります。
  • ターゲットフィルターのないドリルスルー:ドリルスルーにより、ソース選択と同じデータセットに基づいて、明示的なターゲットフィルターなしで任意のビジュアライゼーションをフィルターできるようになりました。ターゲットフィルターが存在する場合、それは引き続き適用されます。詳細はドリルスルーを使用してデータをフィルタリングするを参照してください。
  • 破棄されたダッシュボードAPIエラーの修正:ごみ箱内のダッシュボードにアクセスする際、APIは403 PERMISSION_DENIEDではなく404 NOT_FOUNDを返すようになりました。

ユーザーへのインパクト

Databricksの最新アップデートにより、ダッシュボード機能が大幅に強化されました。主な変更点とユーザーへの影響は以下の通りです:

  1. ピボットテーブルの強化:条件付き書式設定でcontains()startswith()endswith()関数がサポートされ、より柔軟なデータ表示が可能になりました。

  2. グリッド線の表示/非表示:チャートのグリッド線をオン/オフできるようになり、視認性が向上しました。

  3. ダッシュボードのタグ付けと認定(パブリックプレビュー):ダッシュボードとGenieスペースにタグを追加できるようになり、ワークスペース内での検索と整理が容易になりました。

  4. ドリルスルー機能の改善:ターゲットフィルターがなくても、ソース選択に基づいてビジュアライゼーションをフィルターできるようになり、より直感的なデータ分析が可能になりました。

  5. APIエラーの修正:ごみ箱内のダッシュボードへのアクセス時に返されるAPIエラーステータスコードが403 PERMISSION_DENIEDから404 NOT_FOUNDに変更され、より適切なエラー処理が実現しました。

これらの変更により、Databricksユーザーはより洗練されたダッシュボードを作成し、データ分析をより効率的に行えるようになります。

Genie APIの更新、ベンチマークの説明、JOINの改善

2025-10-16

  • JOINリレーションシップの検出の改善JOINリレーションシップとSQLスニペット定義を並べ替えて、管理を容易にできるようになりました。
  • APIエンドポイントがパブリックプレビューに移行: 以下のGenie APIエンドポイントは、ベータ版からパブリックプレビューに移行します:会話メッセージの一覧、会話メッセージの削除、サムズアップ/ダウンでのフィードバックの送信。
  • ベンチマーク結果の説明: ベンチマーク結果に、結果が不正解と評価された理由の説明が含まれるようになりました。
  • SQL実行結果の要約: Genieは、SQL実行結果の要約を自動的に生成するようになり、応答がより自然で解釈しやすくなりました。
  • ナレッジストアのSQLメジャー: ユーザーは、フィルターやディメンションとともに、スペースのナレッジストアにSQLメジャーを追加して、Genieが特定のSQL式を生成するようにガイドできるようになりました。 より信頼性の高いGenieスペースのためのナレッジストアの構築を参照してください。
  • 権限メッセージの修正: CAN RUNまたはCAN VIEWの権限を持つユーザーに対するメッセージングが修正され、監視およびデータタブでの機能が正確に反映されるようになりました。
  • ワークスペースアセットタグ付けのサポート: Genieスペースが、ワークスペースアセットタグ付けのパブリックプレビューに含まれるようになりました。

ユーザーへのインパクト

Databricksユーザーは、以下のGenieに関連する改善点を活用できます:

  1. JOINリレーションシップの検出が改善され、管理が容易になりました。
  2. 一部のGenie APIエンドポイントがパブリックプレビューに移行しました。
  3. ベンチマーク結果に不正解の理由が含まれるようになりました。
  4. SQL実行結果の要約が自動生成され、応答がより自然になりました。
  5. ナレッジストアにSQLメジャーを追加できるようになり、GenieのSQL生成が改善されました。
  6. 権限メッセージが修正され、ユーザーの権限が正確に反映されるようになりました。
  7. Genieスペースがワークスペースアセットタグ付けのパブリックプレビューに含まれるようになりました。

これらの改善により、Genieの使い勝手と応答の精度が向上し、Databricksユーザーがより効果的にデータを分析および理解できるようになります。

ワークスペースにおけるDatabricks Asset BundlesがGAになりました。

2025-10-16
ワークスペースでのDatabricksアセットバンドルが一般提供されるようになりました(GA)。 この機能により、組織内の他のユーザーと共同でUIを通じてバンドルの更新を編集、コミット、テスト、デプロイすることができます。

詳細はワークスペースでのバンドルのコラボレーションをご覧ください。

ユーザーへのインパクト

Databricks Asset BundlesがGAになったことにより、ワークスペース上で共同でバンドルの更新、テスト、デプロイができるようになりました。これにより、チームでのコラボレーションがよりスムーズになります。具体的には、UIを通じてバンドルの変更を他のユーザーと共有し、一緒に編集やテストを行い、Databricksリソースの管理が効率化されます。詳細については、Databricksのドキュメントを参照してください。

ソース テーブルの更新時にジョブをトリガーできるようになりました

2025-10-16

ソース テーブルが更新されたときに実行されるジョブのトリガーを作成できるようになりました。 ソース テーブルが更新されたときにジョブをトリガーするを参照してください。

-> を日本語に翻訳すると、以下のようになります。 ソース テーブルが更新されたときに実行されるジョブのトリガーを作成できるようになりました。ソース テーブルが更新されたときにジョブをトリガーするを参照してください。

ユーザーへのインパクト

Databricksの新機能により、ソーステーブルが更新されたときにジョブを実行するトリガーを設定できるようになりました。これにより、データの更新に応じて自動的に処理を実行することが可能になります。具体的には、ソーステーブルの内容が変更されたときに、関連するジョブが自動的にトリガーされ、データ処理や分析などのタスクを実行できます。詳細については、Databricksのドキュメント「ソース テーブルが更新されたときにジョブをトリガーする」を参照してください。

ダッシュボードと Genie スペースのタグ付け (パブリックプレビュー)

2025-10-16
ワークスペース全体での整理、検索、検出を改善するために、ダッシュボードとGenieスペースにタグを追加できるようになりました。タグ付けされたアイテムは検索用にインデックス化されるため、ユーザーは関連するダッシュボードやスペースをすばやく簡単に見つけることができます。
詳細については、ダッシュボードタグの管理 および タグの追加 を参照してください。

ユーザーへのインパクト

ダッシュボードとGenieスペースにタグを追加できるようになり、ワークスペース内での検索や検出が容易になりました。これにより、関連するダッシュボードやスペースを素早く見つけることができるようになります。

バックフィルジョブの実行を作成する

2025-10-14

ジョブバックフィルを使用すると、過去のデータをバックフィルするためのジョブ実行をトリガーできます。これは、古いデータの読み込みや、処理の失敗時のデータ修復に役立ちます。詳細については、ジョブのバックフィルを参照してください。

ユーザーへのインパクト

Databricksの新機能であるジョブバックフィルを使用すると、過去のデータを簡単にバックフィルするためのジョブ実行をトリガーできます。これにより、古いデータの読み込みや処理失敗時のデータ修復が容易になります。ユーザーはこの機能を利用して、特定の期間のデータを再処理したり、不足データを補完したりできます。詳細はDatabricksのドキュメント「ジョブのバックフィル」を参照してください。

データ分類(パブリックプレビュー)

2025-10-13

Databricksデータ分類がパブリックプレビューになりました。これには、すべてのカタログタイプのサポート、すべての分類結果を1つのシステムテーブルに統合すること、新しいUIでの分類の確認と自動タグ付けなどが含まれます。詳細はデータ分類をご参照ください。

ユーザーへのインパクト

Databricksのデータ分類機能がパブリックプレビューになりました。これにより、すべてのカタログタイプがサポートされ、分類結果が1つのシステムテーブルに統合されます。また、新しいUIで分類の確認と自動タグ付けが可能になります。ユーザーは、データのガバナンスとセキュリティをより効果的に管理できるようになります。詳細はドキュメントをご参照ください。

マルチモーダルサポートが利用できるようになりました。

2025-10-13

Databricks がホストする基盤モデルのマルチモーダル入力が、Mosaic AI Model Serving でサポートされました。詳細はビジョン モデルのクエリをご覧ください。

このマルチモーダル サポートは、次の機能を使用して利用できます。

ユーザーへのインパクト

Databricksの最新リリースにより、Mosaic AI Model Servingでホストされる基盤モデルにおいて、マルチモーダル入力がサポートされるようになりました。これにより、Databricksユーザーはテキストだけでなく画像を含むマルチモーダルデータを扱うことができるようになります。

影響を受ける主な機能は、基盤モデルAPI(トークン従量制およびプロビジョンドスループット)とAI Functionsです。これらの機能を使用することで、ユーザーはリアルタイム推論とバッチ推論の両方のワークロードでマルチモーダルサポートを活用できます。特に、ビジョン(画像)モデルをクエリする機能が新たに利用可能になりました。

これらの変更により、Databricksユーザーはより多様なデータタイプを処理し、より高度な機械学習モデルをデプロイできるようになり、AIアプリケーションの開発と展開が促進されることが期待されます。詳細については、提供されたドキュメントリンク(ビジョン モデルのクエリ、基盤モデル API、AI Functions)を参照することをお勧めします。

SQL MCPサーバーが利用可能になりました(ベータ版)

2025-10-10

Databricksは現在、AIエージェントがSQLウェアハウスを使用してUnity Catalogテーブルに対して直接SQLクエリを実行できるようにするSQLマネージドMCPサーバーを提供しています。SQL MCPサーバーはhttps://<workspace-hostname>/api/2.0/mcp/sqlで利用できます。詳細については、DatabricksマネージドMCPサーバーの使用を参照してください。

ユーザーへのインパクト

SQL MCPサーバー(ベータ版)が利用可能になったため、DatabricksユーザーはAIエージェントを使用してUnity Catalogテーブルに対して直接SQLクエリを実行できるようになりました。SQL MCPサーバーはhttps://<workspace-hostname>/api/2.0/mcp/sqlでアクセスでき、詳細はDatabricksのドキュメントで確認できます。

ビジュアライゼーションの修正

2025-10-09

  • エイリアスが設定された系列名の凡例の選択: SQLエディタやノートブックにおいて、エイリアスが設定された系列名を持つチャートで凡例の選択が正しく動作するようになりました。

ユーザーへのインパクト

このリリースノートは、DatabricksユーザーがSQLエディタやノートブックでエイリアスが設定された系列名を持つチャートを使用する際に、凡例の選択が正しく機能するようになったことを示しています。つまり、以前は凡例の選択がうまく動作していなかった可能性がありますが、この修正により、ユーザーは正しく凡例を選択できるようになり、ビジュアライゼーションの操作性が向上しました。

コンテキストベースのイングレス制御(ベータ版)

2025-10-09

コンテキストベースの受信制御がベータ版で利用できるようになりました。これにより、アカウント管理者は、誰が、いどこから呼び出しを行っているか、およびDatabricksで何にアクセスできるかを組み合わせた許可ルールと拒否ルールを設定できます。コンテキストベースの受信制御により、アイデンティティ、リクエストのタイプ、およびネットワークソースの信頼できる組み合わせだけが、ワークスペースにアクセスできるようになります。1つのポリシーが複数のワークスペースを管理し、組織全体で一貫した適用を保証します。

コンテキストベースの受信制御を参照してください。

ユーザーへのインパクト

コンテキストベースの受信制御(ベータ版)のリリースにより、Databricksユーザーはより厳格なアクセス制御を受けることになります。この機能により、管理者はユーザーのID、リクエストの種類、ネットワークソースを組み合わせた許可または拒否ルールを設定できるようになり、ワークスペースへのアクセスがより安全になります。複数のワークスペースにわたる一貫したポリシー適用が可能となり、組織全体のセキュリティ体制が強化されます。ユーザーは、この新しいセキュリティポリシーが自身のワークフローに与える影響を理解し、それに応じてアクセス方法を調整する必要があります。

AI/BIダッシュボードのテーブルおよびテキストウィジェットの改善

2025-10-09

  • 表からリンクのURLをコピー: テーブルの視覚化から直接リンクのURLをコピーできるようになりました。
  • ピボットテーブルの行ヘッダーの改善: ピボットテーブルの行ヘッダーのフィールド名がはみ出さなくなり、行の値とともにスクロールするようになりました。
  • テキストウィジェットにおける<文字の扱いの改善: テキストウィジェットが<文字を正しく処理するようになり、予期しない動作が防止されるようになりました。
  • カスタム計算の精度の向上: 集計関数でDISTINCTキーワードとFILTER(WHERE ...)句がサポートされるようになりました。これらを使用して、一意のエンティティをカウントし、条件付き集計を実行して、複雑なCASE文を置き換えることができます。詳しくは、集計関数をご覧ください。
  • カスタム計算のための追加の述語サポート: カスタム計算でINBETWEEN、パターンマッチング述語(LIKEILIKERLIKE)がサポートされるようになり、より柔軟なフィルタリングと比較操作が可能になりました。詳しくは、カスタム計算とはをご覧ください。

ユーザーへのインパクト

Databricksユーザーは、AI/BIダッシュボードのテーブルおよびテキストウィジェットに関する以下の改善点を活用できます:

  1. テーブルの視覚化から直接リンクのURLをコピーできます。
  2. ピボットテーブルの行ヘッダーの表示が改善され、フィールド名がはみ出さなくなりました。
  3. テキストウィジェットが<文字を正しく処理するようになり、予期しない動作が防止されるようになりました。
  4. カスタム計算でDISTINCTキーワードとFILTER(WHERE ...)句がサポートされるようになり、一意のエンティティのカウントや条件付き集計が可能になりました。
  5. カスタム計算でINBETWEEN、パターンマッチング述語(LIKEILIKERLIKE)がサポートされるようになり、より柔軟なフィルタリングと比較操作が可能になりました。

これらの改善により、Databricksユーザーはより柔軟で強力なダッシュボードを作成し、データの分析と可視化をより効率的に行うことができます。

Genieナレッジストアの強化とベンチマークの改善

2025-10-09

  • ベンチマーク生成の簡素化:
    • スペースの編集者は、チャット会話から代表的なメッセージやSQL回答をベンチマークの質問として保存できるようになりました。詳細はその他の回答アクションを参照してください。
    • スペースの編集者は、ベンチマークのテキスト質問を入力した後にベンチマークのSQL回答を生成できるようになりました。詳細はベンチマーク質問の追加を参照してください。
    • 1つのベンチマーク結果からの正確なGenieの回答を保存し、将来のベンチマークセットの更新に使用できるようになりました。詳細は個々の評価の確認を参照してください。
  • パフォーマンスとレイテンシの改善: Genieの内部推論プロセスが簡素化され、全体的なレイテンシがわずかに改善され、SQL生成のためのコンテキストが合理化されました。

ユーザーへのインパクト

Databricksユーザーは、Genieナレッジストアの強化とベンチマークの改善によって以下のような影響を受けます。

  • スペースの編集者は、チャット会話からベンチマークの質問を簡単に保存でき、ベンチマークのSQL回答を自動生成できるようになりました。これにより、ベンチマークの作成と管理が容易になります。
  • ベンチマーク結果から正確なGenieの回答を保存し、将来のベンチマークセットの更新に使用できるようになりました。これにより、ベンチマークの精度と一貫性が向上します。
  • Genieの内部推論プロセスが簡素化され、全体的なレイテンシが改善され、SQL生成のためのコンテキストが合理化されました。これにより、Genieの応答速度が向上し、より効率的に利用できるようになります。

請求対象の使用状況テーブルに、サーバーレスジョブとパイプラインのパフォーマンスモードが記録されるようになりました。

2025-10-09

請求ログには、サーバーレスジョブとパイプラインのパフォーマンスモードが記録されるようになりました。ワークロードのパフォーマンスモードはproduct_features.performance_target列に記録され、PERFORMANCE_OPTIMIZEDSTANDARD、またはnullの値が含まれます。

請求ログのリファレンスについては、請求対象の使用状況システムテーブルリファレンスを参照してください。

ユーザーへのインパクト

Databricksユーザーは、請求対象の使用状況テーブルを通じて、サーバーレスジョブとパイプラインのパフォーマンスモード(PERFORMANCE_OPTIMIZEDSTANDARDなど)を把握できるようになりました。これにより、ワークロードのパフォーマンスとコストの最適化がより効果的に行えるようになります。請求ログのproduct_features.performance_target列を確認することで、利用状況をより詳細に分析できます。

Data Science Agentは、Amazon Bedrock経由で提供されるモデルも使用できるようになりました。

2025-10-08

Databricks Assistantは、パートナー提供のAI機能が有効になっている場合、Data Science Agentの一部としてAmazon Bedrock経由で提供されるモデルも使用できるようになりました。

ユーザーへのインパクト

Databricks AssistantのData Science AgentがAmazon Bedrock経由で提供されるモデルを利用できるようになりました。これにより、Databricksユーザーはより幅広いAI機能を活用できるようになります。具体的には、パートナー提供のAI機能が有効になっている場合、Data Science AgentがAmazon Bedrockのモデルを使用できるようになり、ユーザーはより多様なAIモデルを利用してデータサイエンスのタスクを実行できるようになります。

Deltaテーブル履歴とVACUUMを操作するための動作変更

2025-10-08

Databricks Runtime 18.0では、より予測可能な動作のためにDelta LakeのタイムトラベルクエリVACUUMの動作が変更されます。

現在の動作:

タイムトラベルが利用できるかどうかは、VACUUM が最後に実行されたタイミングによって決まりますが、これを正確に予測するのは困難です。

Databricks Runtime 18.0での変更点:

以下の更新により、タイムトラベルは決定論的になり、保持設定に沿ったものになります。

  • delta.deletedFileRetentionDuration を超えるタイムトラベルクエリ(AS OF 構文を使用した SELECTRESTORECDC、および CLONE)はブロックされます。
  • VACUUM保持期間RETAIN num HOURS)は警告とともに無視されます。ただし、0 時間の場合は例外で、Delta テーブルのすべての履歴が完全に削除されます。
  • いずれかのプロパティを変更する場合、delta.logRetentionDurationdelta.deletedFileRetentionDuration 以上である必要があります。

これらの変更は以下のスケジュールでリリースされます:

  • 2025年12月中旬: Databricks Runtime 18.0のすべてのDeltaテーブルに適用されます。
  • 2026年1月: サーバレス コンピュート、Databricks SQL、および Databricks Runtime 12.2 以上で、Unity Catalog 管理テーブルに適用されます。

Unity Catalog 管理テーブルについては、Databricks Runtime

ユーザーへのインパクト

Databricks Runtime 18.0以降、Delta LakeのタイムトラベルとVACUUMの動作が変更され、以下の影響があります:

  • delta.deletedFileRetentionDurationで指定された保持期間を超えたタイムトラベルクエリはブロックされます。
  • VACUUMコマンドの保持期間指定は基本的に無視され、警告が表示されます。ただし、0 HOURSの場合はテーブル履歴が完全に削除されます。
  • delta.logRetentionDurationdelta.deletedFileRetentionDuration以上に設定する必要があります。

これらの変更は、2025年12月中旬にDatabricks Runtime 18.0のDeltaテーブルに、2026年1月にUnity Catalog管理テーブルに適用されます。したがって、ユーザーはこれらの変更に対応するために、Deltaテーブルの保持設定やVACUUMコマンドの使用方法を見直す必要があります。

Databricks Runtimeのメンテナンスアップデート

2025-10-07

サポートされている Databricks Runtime バージョンに対して、新しいメンテナンス更新が利用できるようになりました。これらの更新には、バグの修正、セキュリティ パッチ、パフォーマンスの向上が含まれます。詳細については、「Databricks Runtime のメンテナンス更新」を参照してください。

ユーザーへのインパクト

Databricks Runtimeのメンテナンスアップデートにより、バグの修正、セキュリティパッチ、パフォーマンスの向上が適用されます。影響を受けるDatabricks Runtimeバージョンを使用しているユーザーは、更新されたバージョンにアップグレードすることをお勧めします。具体的な変更内容については、Databricksのドキュメントを参照してください。

Databricks Runtime 17.3 LTS および Databricks Runtime 17.3 LTS ML はベータ版です。

2025-10-06

Databricks Runtime 17.3 LTS およびDatabricks Runtime 17.3 LTS ML は、Apache Spark 4.0.0 を搭載した Beta 版として利用できるようになりました。このリリースには、新しい構成オプション、改善されたエラー処理、および強化された Spark Connect サポートが含まれています。

Databricks Runtime 17.3 LTS (Beta) および Databricks Runtime 17.3 LTS for Machine Learning (Beta)を参照してください。

ユーザーへのインパクト

Databricks Runtime 17.3 LTS および Databricks Runtime 17.3 LTS ML のベータ版が利用可能になりました。Apache Spark 4.0.0 を搭載しており、新しい構成オプション、改善されたエラー処理、強化された Spark Connect サポートが含まれています。詳細は、公式ドキュメントを参照してください。ユーザーは、これらの新機能と改善点を活用するために、ベータ版をテストし、フィードバックを提供することが推奨されます。

Delta Sharingの受信者は、行フィルターと列マスクを適用できます (GA)

2025-10-06
Delta Sharingの受信者は、共有テーブルおよび共有外部テーブルに対して独自の行フィルタおよびカラムマスクを適用できるようになりました。ただし、Delta Sharingの提供者は、行レベルのセキュリティまたはカラムマスクが適用されたデータアセットを共有することはできません。
詳細については、行フィルタとカラムマスクの適用を参照してください。

ユーザーへのインパクト

Delta Sharingの受信者は、共有テーブルや共有外部テーブルに対して行フィルタや列マスクを適用できるようになりました。これにより、データのセキュリティとプライバシーが向上します。ただし、Delta Sharingの提供者は、行レベルのセキュリティや列マスクが適用されたデータアセットを共有することはできません。

パーティションメタデータは一般的に利用可能です。

2025-10-06

Unity Catalog に登録された外部テーブルに対するパーティション検出戦略である、パーティション メタデータ ログ記録を有効にできるようになりました。詳細については、パーティション メタデータ ログ記録の使用を参照してください。

ユーザーへのインパクト

Unity Catalogに登録された外部テーブルのパーティション検出が効率化されます。パーティション メタデータ ログ記録を有効にすることで、パーティションの検出と管理が高速化され、クエリのパフォーマンスが向上する可能性があります。詳細はドキュメントを参照してください。

認定ステータスシステムタグはパブリックプレビュー中です。

2025-10-06

認定済みまたは非推奨のデータ資産であることを示すために、カタログ、スキーマ、テーブル、ビュー、ボリューム、ダッシュボード、登録済みモデル、およびGenie Spacesにsystem.certification_statusガバンドタグを適用できるようになりました。これにより、分析やAIワークロードのガバナンス、検出可能性、信頼性が向上します。データを認定済みまたは非推奨としてフラグを立てるを参照してください。

ユーザーへのインパクト

Databricksユーザーは、カタログ、スキーマ、テーブル、ビューなどのデータ資産にsystem.certification_statusタグを適用することで、データの認定ステータスを簡単に識別し、ガバナンス、検出可能性、信頼性の向上が図れます。

Mosaic AI Model Servingは現在、OpenAI GPT 5モデル(プレビュー)をサポートしています。

2025-10-06
Model Servingは、OpenAIのGPT-5GPT-5 mini、およびGPT-5 nanoモデルをパブリックプレビューでサポートするようになりました。プレビュー期間中にこれらのモデルにアクセスするには、アカウントチームにお問い合わせください。

これらのモデルはAI Functions用に最適化されているため、ai_query()などのAI Functionsとこれらのモデルを使用してバッチ推論を実行できます。

リアルタイム推論ワークロードについては、以下のページを参照してください。

Model Servingは、OpenAIのGPT-5、GPT-5 mini、およびGPT-5 nanoモデルをパブリックプレビューでサポートするようになりました。プレビュー期間中にこれらのモデルにアクセスするには、アカウントチームにお問い合わせください。

これらのモデルはAI Functions用に最適化されており、ai_query()などのAI Functionsとこれらのモデルを使用してバッチ推論を実行できます。

リアルタイム推論ワークロードについては、以下の情報を参照してください。

  • チャットモデルのクエリ
  • 推論モデルのクエリ
  • ビジョンモデルのクエリ
  • ファンクションコーリング

ユーザーへのインパクト

Databricksユーザーは、Mosaic AI Model Servingを通じてOpenAIのGPT-5モデル(GPT-5、GPT-5 mini、GPT-5 nano)をパブリックプレビューで利用できるようになりました。これらのモデルはAI Functions(ai_query()など)と連携してバッチ推論を実行でき、リアルタイム推論ワークロードにも対応しています。プレビュー期間中にこれらのモデルにアクセスするには、アカウントチームに連絡する必要があります。

プロンプトキャッシングがClaudeモデルでサポートされるようになりました。

2025-10-03

プロンプトキャッシュは、DatabricksでホストされているClaudeモデルでサポートされるようになりました。クエリリクエストでcache_controlパラメータを指定すると、以下の要素をキャッシュできます。

  • messages.content配列内の思考メッセージコンテンツ。
  • messages.content配列内の画像コンテンツブロック。
  • tools配列内のツール使用、結果、定義。

詳細は基盤モデル REST API リファレンスをご覧ください。

ユーザーへのインパクト

DatabricksでClaudeモデルを使用する際、プロンプトキャッシングがサポートされるようになりました。これにより、cache_controlパラメータを使用することで、messages.content配列内のコンテンツやtools配列内のツール関連情報をキャッシュできるようになり、効率的な処理が可能になります。詳細はDatabricksのドキュメントを参照してください。

ノートブックの改善

2025-10-03
以下のノートブックの改善が利用できるようになりました:

  • セル実行ミニマップがノートブックの右マージンに表示されるようになりました。ミニマップを使用して、ノートブックの実行状態を視覚的に把握し、セル間を素早く移動できます。セル実行ミニマップを参照してください。
  • Databricks Assistantを使用して、ライブラリのインストールエラーなどの環境エラーの診断と修正を行います。環境エラーのデバッグを参照してください。
  • サーバレスノートブックに再接続すると、ノートブックのPython変数とSpark状態でセッションが自動的に復元されます。サーバレスノートブックの自動セッション復元を参照してください。
  • PySparkの作成補完はaggwithColumnswithColumnsRenamedfilter/where句をサポートするようになりました。インラインコードの提案の取得:PythonとSQLの例を参照してください。
  • Databricksは、最大100MBのIPYNBノートブックのインポートとエクスポートをサポートするようになりました。リビジョンスナップショットの自動保存、手動保存、クローニングは、最大100MBのすべてのノートブックでサポートされています。ノートブックのサイズを参照してください。
  • ノートブックのクローン作成とエクスポート時に、セル出力を含めるかどうかを選択できるようになりました。ノートブックフォーマットの管理を参照してください。

ユーザーへのインパクト

ノートブックの改善に関する影響

Databricksの最新リリースにより、ノートブックの使い勝手と機能が大幅に向上しました。以下はDatabricksユーザーへの主な影響です:

  1. セル実行ミニマップの導入:ノートブックの右マージンに表示されるセル実行ミニマップにより、ユーザーはノートブックの実行状態を一目で確認し、簡単にセル間を移動できます。
  2. Databricks Assistantの強化:Databricks Assistantが環境エラーの診断と修正をサポートするようになり、ライブラリのインストールエラーのトラブルシューティングが容易になりました。
  3. サーバレスノートブックの自動セッション復元:サーバレスノートブックに再接続すると、Python変数とSpark状態のセッションが自動的に復元されるようになり、作業の効率化が図れます。
  4. PySparkのコード補完の拡張:PySparkのコード補完がaggwithColumnswithColumnsRenamedfilter/where句をサポートするようになり、開発体験が向上しました。
  5. 大規模IPYNBノートブックのサポート:最大100MBのIPYNBノートブックのインポートとエクスポートがサポートされるようになり、大きなノートブックの管理が容易になりました。また、リビジョンスナップショットの自動保存、手動保存、クローニングも最大100MBのノートブックで利用できます。
  6. ノートブックのクローンとエクスポートの柔軟性向上:ノートブックのクローン作成やエクスポート時に、セル出力を含めるかどうかを選択できるようになり、ユーザーがノートブックをより柔軟に管理できるようになりました。

これらの改善により、Databricksユーザーはより効率的かつ柔軟にノートブックを操作できるようになります。

Anthropic Claude Sonnet 4は、米国リージョンでのバッチ推論で利用可能です。

2025-10-03
Mosaic AI Model Servingは、バッチ推論ワークフローのためにAnthropic Claude Sonnet 4をサポートするようになりました。バッチ推論を実行するためにai_queryリクエストでdatabricks-claude-sonnet-4を使用できるようになりました。

ユーザーへのインパクト

Anthropic Claude Sonnet 4が、米国リージョンのDatabricksでバッチ推論用に利用可能になりました。これにより、ai_queryリクエストでdatabricks-claude-sonnet-4モデルを使用できるようになり、より効率的なバッチ処理が可能になります。詳細はドキュメントを参照してください。リージョンの可用性も確認できます。

Anthropic Claude Sonnet 4.5がDatabricksホストモデルとして利用可能になりました。

2025-10-03
Mosaic AI Model Servingは現在、DatabricksがホストするモデルとしてAnthropicのClaude Sonnet 4.5をサポートしています。このモデルには、Foundation Model APIsのトークン従量課金を使用してアクセスできます。

ユーザーへのインパクト

Anthropic Claude Sonnet 4.5がDatabricksで利用可能になったため、ユーザーはMosaic AI Model Servingを通じてこのモデルにアクセスできます。Foundation Model APIsのトークン従量課金で利用できるため、Databricks上でより高度なAI機能を利用できるようになります。

Genieのスペース拡張機能と思考トレース機能

2025-10-02

  • スペースへのテーブルとメトリクスのビューの追加: ユーザーはテーブルとメトリクスのビューをスペースに追加して、それらをまとめて分析できるようになりました。
  • ベンチマークのスコアリングの向上: ベンチマークでは、Genieの出力の余分な行や列は不正解として扱われるようになりました。 評価の解釈を参照してください。
  • レスポンスの思考トレース: 各 Genie レスポンスには、プロンプトがどのように解釈されたか、使用されたテーブルやSQL文の例を示す思考トレースが含まれるようになりました。 レスポンスのレビューを参照してください。

ユーザーへのインパクト

Databricksユーザーは、Genieのスペースにテーブルや指標のビューを追加して一元的に分析できるようになりました。また、Genieの評価基準が厳格化され、余分な行や列がある場合は不正解と見なされるようになりました。さらに、Genieのレスポンスに思考プロセスが表示されるようになり、回答の根拠をより深く理解できるようになりました。

外部テーブルからUnity Catalog管理テーブルへの変換

2025-10-02

ALTER TABLE ... SET MANAGED コマンドが一般提供開始されました。このコマンドを使用すると、Unity Catalog の外部テーブルをマネージドテーブルにシームレスに変換できます。これにより、Unity Catalog マネージドテーブルの機能(ガバナンス、信頼性、パフォーマンスの向上など)を十分に活用できるようになります。詳細については、外部テーブルをマネージド Unity Catalog テーブルに変換するを参照してください。

ユーザーへのインパクト

Unity Catalogの外部テーブルをマネージドテーブルに変換できるALTER TABLE ... SET MANAGEDコマンドが一般提供されました。これにより、Unity Catalogのガバナンス、信頼性、パフォーマンス向上の機能を活用できます。詳しくはDatabricksドキュメントをご参照ください。

AI/BIダッシュボードの強化とグローバルフィルタの改善

2025-10-02

  • グローバルフィルター・パネルのオーバーフローを修正: グローバルフィルター・パネルが意図した幅を超えて拡張されていた問題を解決しました。
  • アカウントレベルのユーザーに対するアクセス: ワークスペースを持たないユーザーも、埋め込み認証情報なしで公開されたダッシュボードにアクセスできるようになりました。詳細は埋め込み認証情報とはをご覧ください。
  • メトリックビューのフィールドとメジャーのプレビュー: 作成者は、データの追加ダイアログでメトリックビューに使用できるフィールドとメジャーをプレビューできるようになりました。
  • ダッシュボード・データセット・エディタでのクエリ分析: クエリのパフォーマンスを分析するために、ダッシュボード・データセット・エディタでクエリ分析が利用できるようになりました。
  • ウィジェットとページのコピーと貼り付け: ダッシュボード・ウィジェットとページをダッシュボード間でコピーして貼り付けることができるようになりました。
  • 棒グラフの上位または下位N件のカテゴリ: 棒グラフで上位または下位Nカテゴリを表示できるようになりました。編集するには、カテゴリ軸のケバブメニューを開き、デフォルトのカテゴリ数の下で件数を設定します。

ユーザーへのインパクト

Databricksユーザーは、AI/BIダッシュボードの強化とグローバルフィルタの改善により、以下のような影響を受けます。

  • グローバルフィルター・パネルの表示が改善され、意図した幅に収まるようになりました。
  • ワークスペースを持たないアカウントレベルのユーザーも、埋め込み認証情報なしで公開されたダッシュボードにアクセスできるようになりました。
  • 作成者は、メトリックビューのフィールドとメジャーをデータの追加ダイアログでプレビューできるようになりました。
  • ダッシュボード・データセット・エディタでクエリ分析が利用できるようになり、クエリのパフォーマンスを分析できます。
  • ダッシュボード・ウィジェットとページをダッシュボード間でコピーして貼り付けることができるようになりました。
  • 棒グラフで上位または下位N件のカテゴリを表示できるようになり、カテゴリ軸のケバブメニューでデフォルトのカテゴリ数を設定できます。

メトリックビューのセマンティックメタデータサポート

2025-10-02

メトリクスビューでセマンティックメタデータを定義できるようになりました。セマンティックメタデータは、GenieスペースやAI/BIダッシュボードなどのAIツールがデータの解釈と利用をより効果的に行うのに役立ちます。

セマンティックメタデータを使用するには、メトリクスビューがYAML仕様バージョン1.1以上を使用し、DBR 17.2以上で実行されている必要があります。対応するDatabricks SQLバージョンは2025.30で、SQLウェアハウスのプレビューチャンネルで利用可能です。

メトリクスビューでのセマンティックメタデータの使用 および アップグレード時の考慮事項 を参照してください。

ユーザーへのインパクト

Databricksユーザーは、メトリクスビューでセマンティックメタデータを定義できるようになり、GenieスペースやAI/BIダッシュボードなどのAIツールがデータを利用しやすくなります。これを利用するには、メトリクスビューのYAML仕様を1.1以上に更新し、DBR 17.2以上、またはDatabricks SQLバージョン2025.30(SQLウェアハウスのプレビューチャンネルで利用可能)にアップグレードする必要があります。

メトリックビューのセマンティックメタデータ

2025-10-02

メトリクスビューでセマンティックメタデータを定義できるようになりました。セマンティックメタデータは、GenieスペースやAI/BIダッシュボードなどのAIツールがデータをより効果的に解釈して使用するのに役立ちます。

セマンティックメタデータを使用するには、メトリクスビューでYAML仕様バージョン1.1以降を使用し、DBR 17.2以降で実行する必要があります。対応するDatabricks SQLバージョンは2025.30で、SQLウェアハウスのプレビューチャンネルで利用できます。

メトリクスビューでのセマンティックメタデータの使用 および アップグレード時の考慮事項 を参照してください。

ユーザーへのインパクト

Databricksユーザーは、メトリックビューでセマンティックメタデータを定義できるようになりました。これにより、GenieスペースやAI/BIダッシュボードなどのAIツールがデータをより効果的に解釈して使用できるようになります。ただし、これを使用するには、メトリクスビューでYAML仕様バージョン1.1以降を使用し、DBR 17.2以降、またはDatabricks SQLバージョン2025.30以降(SQLウェアハウスのプレビューチャンネルで利用可能)で実行する必要があります。

GitフォルダのGitメールアドレス設定

2025-10-01

Databricks GitフォルダのGit認証情報を作成するときに、ユーザー名とは別にGitプロバイダーのメールアドレスを指定できるようになりました。このメールは、Gitフォルダを介して行われたすべてのコミットに対してGit作成者およびコミッターIDとして使用され、Gitプロバイダーでの適切な属性付けと、Gitアカウントでのより良い統合が保証されます。

指定したメールアドレスは、コミットのためにGIT_AUTHOR_EMAIL および GIT_COMMITTER_EMAIL となり、Gitプロバイダーがコミットをユーザーアカウントに適切に関連付けし、プロファイル情報を表示できるようにします。メールアドレスが指定されていない場合、DatabricksはGitユーザー名をメールアドレスとして使用します(以前からの動作)。

GitコミットIDとメール設定」を参照してください。

ユーザーへのインパクト

Databricks GitフォルダでGit認証情報を作成する際、ユーザー名と別にGitプロバイダーのメールアドレスを指定できるようになりました。これにより、Gitフォルダで行われたコミットに適切なメールアドレスが割り当てられ、Gitプロバイダーでの属性付けとアカウント統合が向上します。メールアドレスを指定しない場合は、従来どおりGitユーザー名がメールアドレスとして使用されます。

[Databricks GitHub App の新しい権限

Databricks GitHub App は、https://github.com/apps/databricks で利用できる公式の GitHub アプリケーションです。これにより、Databricks Repos との GitHub リポジトリの同期、GitHub リポジトリへの Databricks ノートブックのコミット、GitHub ワークフローを使用した Databricks ノートブックの CI/CD が容易になります。Databricks GitHub アプリケーションは、Databricks Repos 機能を使用するために必要です。

Databricks GitHub App の権限を更新し、Databricks と GitHub の統合をさらに強化します。これらの変更は、お客様の GitHub アカウントと Databricks アカウントのセキュリティとプライバシーを強化するものです。

Databricks GitHub App に必要な変更を以下に示します。

  1. 必須の権限: Databricks は、リポジトリ (読み取りおよび書き込み) 権限を要求して、ユーザーの代わりに Databricks Repos と GitHub リポジトリ間の同期を実行します。Databricks Repos は、Databricks ワークスペースにチェックアウトされた Git リポジトリへのフルアクセスを提供する、Databricks 内のバージョン管理のためのビジュアル ツールです。さらに、Databricks はメタデータ (読み取り専用) 権限を要求して、リポジトリとそのメタデータを一覧表示します。
  2. オプションの権限: Databricks は、プルリクエスト (読み取りおよび書き込み) 権限をオプションとして要求し、ユーザーが Databricks 内からプルリクエストを作成および更新できるようにします。これは必須の権限ではありませんが、この権限を付与すると、Databricks 内でプルリクエストを作成および更新する機能が有効になります。
  3. サブスクリプション イベント: Databricks は、リポジトリに関するプッシュおよびプルリクエストのイベントを受信するためのイベント サブスクリプションを更新して、Databricks 内でプル リクエストを作成および更新するときに、GitHub でプル リクエストを更新します。

Databricks は、お客様の GitHub 組織またはアカウントの管理者に、Databricks GitHub アプリケーションのこれらの変更をレビューおよび承認するようお願いしています。Databricks GitHub App のインストール時にこれらの権限に同意しない場合は、Databricks Repos を使用するために、代わりに](https://docs.databricks.com/aws/en/release-notes/product/2025/october#new-permissions-for-the-databricks-github-app)
2025-10-01

Databricks GitHub アプリがインストールされているDatabricksアカウントをお持ちの場合、GitHubから「Databricks is requesting updated permissions(Databricksは更新された権限をリクエストしています)」というタイトルのメールが届くことがあります。

これはDatabricksからの正当なリクエストです。これにより、DatabricksがGitHubアカウントのメールアドレスを読み取れるようにするための新しい権限を承認するよう求められます。この権限を付与すると、Databricksは主要なGitHubアカウントのメールアドレスを取得し、DatabricksのリンクされたGitクレデンシャルに保存できます。今後の機能で、これにより、Databricksから行われたコミットが、適切にGitHubのIDにリンクされるようになります。

新しい権限を受け入れない場合、リンクされたGitクレデンシャルは引き続きGitHubと認証されます。ただし、このクレデンシャルからの今後のコミットは、GitHubアカウントIDに関連付けられません

ユーザーへのインパクト

Databricks GitHub Appの権限更新に関するリリースノートの影響を簡潔にまとめると以下のようになります:

Databricks GitHub Appの権限更新

  1. 必須の権限

    • リポジトリ(読み取りおよび書き込み)権限:Databricks ReposとGitHubリポジトリ間の同期に必要。
    • メタデータ(読み取り専用)権限:リポジトリとそのメタデータの一覧表示に必要。
  2. オプションの権限

    • プルリクエスト(読み取りおよび書き込み)権限:Databricks内からプルリクエストを作成および更新するために必要。ユーザーがこの権限を付与しない場合、Databricks内でのプルリクエスト作成・更新機能は利用できません。
  3. サブスクリプションイベント

    • リポジトリに関するプッシュおよびプルリクエストイベントを受信するためのイベントサブスクリプションを更新。これにより、Databricks内でのプルリクエストの作成・更新時にGitHub上のプルリクエストも更新されます。

ユーザーへの影響

  • GitHub組織またはアカウントの管理者は、新しい権限をレビューし、承認する必要があります。
  • Databricks GitHub Appをすでにインストールしているユーザーの場合
    • GitHubから「Databricks is requesting updated permissions(Databricksは更新された権限をリクエストしています)」というタイトルのメールが届くことがあります。
    • 新しい権限には、GitHubアカウントのメールアドレスを読み取る権限が含まれます。この権限を承認すると、Databricksは主要なGitHubアカウントのメールアドレスを取得し、DatabricksのリンクされたGitクレデンシャルに保存できます。
    • この権限を承認しない場合、リンクされたGitクレデンシャルは引き続きGitHubと認証されますが、今後のコミットはGitHubアカウントIDにリンクされません。

アクション

  • GitHub組織またはアカウントの管理者は、新しい権限をレビューし、必要に応じて承認する必要があります。
  • ユーザーは、届いたメールに従って新しい権限を承認するかどうかを選択できます。承認しない場合は、今後のコミットがGitHubアカウントIDにリンクされないことを理解しておく必要があります。

パイプライン更新のタイムライン テーブルが利用できるようになりました (パブリック プレビュー)

2025-09-30

system.lakeflow.pipeline_update_timeline テーブルは、パイプラインの更新の履歴を完全に追跡し、更新アクティビティ、トリガー、結果、コンピュート使用量の詳細な分析をサポートします。

パイプライン更新履歴テーブルのスキーマを参照してください。

ユーザーへのインパクト

Databricksユーザーは、system.lakeflow.pipeline_update_timelineテーブルを通じてパイプライン更新の詳細な履歴と分析情報を取得できるようになり、パイプラインの監視と最適化が容易になります。

データ分類システム表ベータ版

2025-09-30

新しいシステムテーブルsystem.data_classification.resultsがBetaで利用できるようになりました。このテーブルは、メタストア内のすべての有効なカタログにわたって、列レベルで機密データの検出結果を記録します。

ユーザーへのインパクト

新しいシステムテーブルsystem.data_classification.resultsがベータ版で利用可能になりました。このテーブルには、メタストア内のすべてのカタログの列レベルでの機密データ検出結果が記録されます。これにより、Databricksユーザーは、データの機密性に関する情報を一元的に把握し、データガバナンスとコンプライアンスの強化が期待できます。

Lakeflow Pipelines Editorがパブリックプレビューになりました。

2025-09-29
Lakeflow Pipelines Editor(以前は「マルチファイルエディタ」と呼ばれていました)が、一般提供のプレビュー版として利用できるようになりました。Lakeflow Pipelines Editorは、パイプラインアセットブラウザにパイプラインを一連のファイルとして表示します。ユーザーはファイルを編集し、パイプラインの設定や、1つの場所に含めるファイルを制御できます。これにより、パイプラインのデフォルトのソースコード形式が、ノートブックからPythonおよびSQLコードファイルに変更されます。

詳細については、「Lakeflow Pipelines EditorでETLパイプラインを開発およびデバッグする」を参照してください。

ユーザーへのインパクト

Lakeflow Pipelines Editorがパブリックプレビューで利用可能になりました。これにより、パイプラインを一連のファイルとして管理でき、PythonやSQLコードファイルでのETLパイプライン開発が容易になります。ユーザーは、パイプラインの設定や含めるファイルを一元管理できます。デフォルトのソースコード形式がノートブックからPythonおよびSQLコードファイルに変更されるため、既存のノートブックベースのパイプラインに影響が出る可能性があります。詳細はDatabricksのドキュメントを参照してください。

Databricksは、Anthropic Claude Opus 4.1をDatabricksホストのファウンデーションモデルとして提供開始しました。

2025-09-29
Mosaic AI Model Servingは、Databricksがホストする基盤モデルであるAnthropicのClaude Opus 4.1をサポートするようになりました。このモデルには、Foundation Model APIs トークン従量課金を使用してアクセスできます。

ユーザーへのインパクト

Anthropic Claude Opus 4.1がDatabricksで利用可能になったため、ユーザーはFoundation Model APIsを通じてこのモデルにトークン単位で従量課金でアクセスできるようになり、柔軟なモデル利用が可能になります。

Salesforce のインジェストのための接続を作成するための新しい要件

2025-09-29
2025年9月初旬、Salesforceは、インストールされていない接続済みアプリの使用を制限し始めました。この制限により、既存のUnity CatalogのSalesforceへの接続が切断されることはありませんが、Databricks接続済みアプリがインストールされていない新しいSalesforceインスタンスへの接続を作成できなくなります。

背景については、Salesforceのドキュメントの「Prepare for Connected App Usage Restrictions Change(接続済みアプリの使用制限変更の準備)」(https://help.salesforce.com/s/articleView?id=005132365&#x26;type=1)を参照してください。

Salesforceへの接続手順については、「Salesforce」(/aws/en/connect/managed-ingestion#sfdc)を参照してください。

ユーザーへのインパクト

2025年9月初旬にSalesforceが接続済みアプリの使用制限を変更するため、Databricksで新しいSalesforce接続を作成する際の影響があります。具体的には、Databricksの接続済みアプリがインストールされていない新しいSalesforceインスタンスへの接続ができなくなります。ただし、既存のUnity CatalogのSalesforceへの接続には影響はありません。

新しいSalesforceインスタンスへの接続を作成する予定のユーザーは、事前にDatabricks接続済みアプリをSalesforceインスタンスにインストールする必要があります。接続手順については、Databricksのドキュメントを参照してください。

ワークスペースレベルからアカウントレベルへのABACの移行がパブリックプレビューで利用可能になりました。

2025-09-26
2025年10月31日に、パブリックプレビューのローンチの一環として、ABACはワークスペースレベルのプレビューからアカウントレベルのプレビューに移行します。この変更は、DatabricksがUnity Catalogメタストア全体でABACポリシーを適用する方法に影響します。
ABACベータのお客様の場合、必要に応じてABACパブリックプレビューをオプトアウトすることができます。何もしない場合、Databricksはパブリックプレビューのローンチ時にアカウントのメタストアに接続されているすべてのワークスペースでABACポリシーを適用します。
この移行の詳細、影響を受けるカタログを特定するためのコードスニペット、およびパブリックプレビューをオプトアウトする方法については、 ABACベータからパブリックプレビューへの移行を参照してください。

ユーザーへのインパクト

ABAC(属性ベースのアクセス制御)がワークスペースレベルからアカウントレベルに移行し、パブリックプレビューで利用可能になりました。2025年10月31日に、アカウントレベルのパブリックプレビューに移行します。ABACベータを使用している場合、何もしないとすべてのワークスペースでABACポリシーが適用されます。オプトアウトする場合は、提供されたドキュメントを参照してください。影響を受けるカタログを特定するためのコードスニペットもドキュメントに記載されています。

Databricks SQL バージョン 2025.30 がプレビューで利用可能になりました。

2025-09-25
Databricks SQL バージョン 2025.30 が、プレビュー チャンネルで利用できるようになりました。新機能、動作の変更、バグ修正については、次のセクションを参照してください。

SQLスクリプティングが一般提供開始されました

条件文、ループ、ローカル変数、例外処理など、SQL で手続き型ロジックを記述するための ANSI SQL/PSM に基づく SQL スクリプティング機能が、一般提供を開始しました。SQLスクリプティングを参照してください。

UTF8ベースの照合順序がLIKE演算子をサポート

UTF8_BinaryUTF8_Binary_RTRIMUTF8_LCASEUTF8_LCASE_RTRIMのいずれかの照合順序が有効になっている列で、LIKEを使用できるようになりました。照合順序を参照してください。

ST_ExteriorRing関数がサポートされました

ST_ExteriorRing関数を使用して、ポリゴンの外側の境界を抽出し、それをラインストリングとして返すことができるようになりました。st_exteriorring関数を参照してください。

単一のDECLARE文で複数のセッション変数またはローカル変数を宣言

同じ型とデフォルト値を持つ複数のセッション変数またはローカル変数を、単一のDECLAREステートメントで宣言できるようになりました。DECLARE VARIABLEおよびBEGIN END複合文を参照してください。

メトリクスビューの作成にTEMPORARYキーワードをサポート

メトリクスビューを作成するときに、TEMPORARYキーワードを使用できるようになりました。一時的なメトリクスビューは、それを作成したセッションでのみ表示され、セッションが終了すると削除されます。CREATE VIEWを参照してください。

DESCRIBE CONNECTIONは、JDBC接続の環境設定を表示します

Databricksでは、カスタムドライバーをサポートし、分離して実行されるJDBC接続のDESCRIBE CONNECTION出力に、ユーザーが定義した環境設定が含まれるようになりました。他の接続タイプは変更されません。DESCRIBE CONNECTIONを参照してください。

ストリーミングクエリでDelta読み取りオプションのSQL構文を使用

SQLベースのストリーミングクエリで、WITH句を使用してDelta読み取りオプションを指定できるようになりました。例:

SELECT * FROM STREAM tbl

**ユーザーへのインパクト**

Databricks SQL バージョン 2025.30 のリリースにより、以下の新機能が利用可能になりました。

1. **SQL スクリプティングの一般提供開始**: 手続き型ロジックを記述するための SQL スクリプティング機能が一般提供されました。これにより、条件文、ループ、ローカル変数、例外処理などが利用可能になります。

2. **UTF8 ベースの照合順序で LIKE 演算子をサポート**: `UTF8_Binary`、`UTF8_Binary_RTRIM`、`UTF8_LCASE`、`UTF8_LCASE_RTRIM` のいずれかの照合順序が有効になっている列で、`LIKE` 演算子を使用できるようになりました。

3. **`ST_ExteriorRing` 関数のサポート**: ポリゴンの外側の境界を抽出し、それをラインストリングとして返す `ST_ExteriorRing` 関数が利用可能になりました。

4. **単一の `DECLARE` 文で複数の変数を宣言**: 同じ型とデフォルト値を持つ複数のセッション変数またはローカル変数を、単一の `DECLARE` ステートメントで宣言できるようになりました。

5. **メトリクスビューの作成に `TEMPORARY` キーワードをサポート**: 一時的なメトリクスビューを作成できるようになり、それを作成したセッションでのみ表示され、セッションが終了すると削除されます。

6. **`DESCRIBE CONNECTION` で JDBC 接続の環境設定を表示**: JDBC 接続の `DESCRIBE CONNECTION` 出力に、ユーザーが定義した環境設定が含まれるようになりました。

7. **ストリーミングクエリで Delta 読み取りオプションの SQL 構文を使用**: SQL ベースのストリーミングクエリで、`WITH` 句を使用して Delta 読み取りオプションを指定できるようになりました。

これらの新機能により、Databricks ユーザーはより柔軟で強力な SQL クエリを作成できるようになります。また、既存のワークフローやスクリプトに影響を及ぼす可能性のある変更点もあるため、リリースノートを参照して詳細を確認することをお勧めします。

# [AI/BI ダッシュボードのグローバルフィルター パネルの改善](https://docs.databricks.com/aws/en/ai-bi/release-notes/2025#aibi-dashboard-global-filters-panel-improvements)
**2025-09-25**
<ul>
<li><strong>デフォルトでグローバルフィルタパネルを展開:</strong> グローバルフィルタパネルは、ユーザーがダッシュボードに初めてアクセスしたときにデフォルトで開くようになり、発見性が向上しました。その後の訪問時には、パネルはユーザーの最後の設定を保持します。</li>
</ul>

**ユーザーへのインパクト**

このアップデートにより、DatabricksユーザーはAI/BIダッシュボードを開いたときに、グローバルフィルタパネルがデフォルトで展開されるようになり、使いやすくなります。ユーザーが一度パネルを閉じたり開いたりすると、その後の訪問時には最後の設定が保持されるため、個人の好みに合わせた利用が可能です。

# [GenieのベンチマークとJOIN関係の強化](https://docs.databricks.com/aws/en/ai-bi/release-notes/2025#genie-benchmarks-and-join-relationship-enhancements)
**2025-09-25**
<ul>
<li><strong>バックグラウンドでのベンチマーク実行:</strong> ベンチマークがバックグラウンドタスクとして実行されるようになりました。ユーザーはワークフローをブロックすることなくベンチマークを開始できます。</li>
<li><strong>受け入れ済みのJOINリレーションシップのチェックマーク:</strong>抽出されたJOINリレーションシップを受け入れた際に、受け入れ済みであることを示すチェックマークが表示されるようになりました。</li>
<li><strong>ベンチマークへのアクセス性向上:</strong> ベンチマークが上部ツールバーから利用できるようになり、より簡単にアクセスできるようになりました。</li>
<li><strong>ベンチマークに関する通知:</strong> 命令を変更した後にベンチマークを実行するよう促す通知が表示されるようになりました。</li>
</ul>

**ユーザーへのインパクト**

Genieに関連する機能強化が行われました。主な変更点は以下の通りです:

1. ベンチマークの実行がバックグラウンドで行われるようになり、ワークフローがブロックされなくなりました。
2. JOIN関係を受け入れた際にチェックマークが表示されるようになり、受け入れ済みであることが一目でわかります。
3. ベンチマークへのアクセスが容易になり、上部ツールバーから利用できるようになりました。
4. 命令を変更した後にベンチマークを実行するよう促す通知が表示されるようになり、ユーザーが最新の変更を反映させることが容易になりました。

これらの変更により、DatabricksユーザーはGenieをより効率的に使用できるようになり、ワークフローの生産性が向上する可能性があります。

# [Databricks Runtimeのメンテナンスアップデート](https://docs.databricks.com/aws/en/release-notes/product/2025/september#databricks-runtime-maintenance-updates)
**2025-09-24**
<p>サポートされている Databricks Runtime バージョンについては、新しいメンテナンス更新が利用可能です。これらの更新には、バグの修正、セキュリティ パッチ、およびパフォーマンスの向上が含まれます。詳細については、「<a href="https://docs.databricks.com/aws/ja/release-notes/runtime/maintenance-updates">Databricks Runtime のメンテナンス更新</a>」を参照してください。</p>

**ユーザーへのインパクト**

Databricks Runtimeのメンテナンスアップデートにより、バグの修正、セキュリティパッチ、およびパフォーマンスの向上がサポートされているバージョンに適用されます。ユーザーは、リリースノートの更新情報を参照し、必要に応じて環境を最新に保つことをお勧めします。

# [レガシー公開モードからLakeflow宣言型パイプラインへの移行が一般提供開始されました。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#migrate-lakeflow-declarative-pipelines-pipelines-from-legacy-publishing-mode-is-generally-available)
**2025-09-24**
Lakeflow Declarative Pipelinesには、単一のカタログおよびスキーマへのパブリッシュのみを許可するレガシーのパブリッシュモードがあります。デフォルトのパブリッシュモードでは、複数のカタログおよびスキーマへのパブリッシュが有効になっています。レガシーのパブリッシュモードからデフォルトのパブリッシュモードへの移行が一般的に利用できるようになりました (この機能の以前のリリースで発生した問題は修正されています)。</p>
詳細については<a href="https://docs.databricks.com/aws/ja/dlt/migrate-to-dpm">パイプラインでデフォルトのパブリッシュモードを有効にする</a>を参照してください。

**ユーザーへのインパクト**

Databricksユーザーは、レガシー公開モードからLakeflow宣言型パイプライン(デフォルトのパブリッシュモード)に移行できるようになりました。これにより、複数のカタログおよびスキーマへのパブリッシュが可能になります。以前のリリースで発生した問題は修正済みです。移行方法については、Databricksのドキュメントを参照してください。

# [Mosaic AI Agent Frameworkは、Lakebaseリソースの自動認証パススルーをサポートします。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#mosaic-ai-agent-framework-supports-automatic-authentication-passthrough-for-lakebase-resources)
**2025-09-23**
<p>Mosaic AI Agent Frameworkは、Lakebaseリソースの自動認証パススルーをサポートするようになりました。これにはMLFlow 3.3.2以降が必要です。</p>
<p>詳細は<a href="https://docs.databricks.com/aws/ja/generative-ai/agent-framework/agent-authentication#automatic-authentication-passthrough">自動認証パススルー</a>をご覧ください。</p>

**ユーザーへのインパクト**

Mosaic AI Agent FrameworkがLakebaseリソースの自動認証パススルーをサポートするようになりました。MLflow 3.3.2以降が必要となります。これにより、ユーザーは追加の認証設定なしにLakebaseリソースにアクセスできるようになり、エージェントフレームワークの使い勝手が向上します。詳細については、Databricksのドキュメントを参照してください。

# [列マスクの自動型変換](https://docs.databricks.com/aws/en/release-notes/whats-coming#column-mask-automatic-type-casting)
**2025-09-23**
<p>Unity Catalog属性ベースのアクセス制御(ABAC)は現在ベータ版です。パブリックプレビュー以降、Databricksは、ABACポリシーから解決されたカラムマスク関数の出力を、ターゲットカラムのデータ型に一致するように自動的にキャストします。この強化により、ABACカラムマスキングを使用する場合の型の一貫性とクエリの信頼性が向上します。ABACの詳細については、<a href="https://docs.databricks.com/aws/ja/data-governance/unity-catalog/abac">Unity Catalog属性ベースのアクセス制御(ABAC)</a>を参照してください。</p>
<div><p>マスク関数の戻り値の型がターゲット列の型と互換性がない場合、既存のABAC列マスク実装でクエリが失敗する可能性があります。パブリックプレビューにアップグレードする前に、マスク関数を確認してください。</p></div>

**ユーザーへのインパクト**

このリリースノートは、DatabricksのUnity Catalog属性ベースのアクセス制御(ABAC)に関する変更点について説明しています。以下は、Databricksユーザーへの影響を簡潔にまとめたものです。

* 列マスク関数の出力がターゲット列のデータ型に自動的にキャストされるようになり、型の一貫性とクエリの信頼性が向上しました。
* ただし、既存のABAC列マスク実装で、マスク関数の戻り値の型がターゲット列の型と互換性がない場合、クエリが失敗する可能性があります。
* ユーザーは、パブリックプレビューにアップグレードする前に、マスク関数を確認する必要があります。

# [LLMを使用して表データを調査する(パブリックプレビュー)](https://docs.databricks.com/aws/en/release-notes/product/2025/september#explore-table-data-using-an-llm-public-preview)
**2025-09-22**
カタログエクスプローラーを使用して、サンプルデータに関する自然言語の質問ができるようになりました。アシスタントは、メタデータのコンテキストとテーブル使用パターンを使用してSQLクエリを生成します。クエリを検証して、基になるテーブルに対して実行することができます。<a href="https://docs.databricks.com/aws/ja/discover/database-objects#natural-language">LLMを使用してテーブルデータを探索する</a>を参照してください。

**ユーザーへのインパクト**

Databricksユーザーは、カタログエクスプローラーで自然言語を使用してサンプルデータに関する質問ができるようになり、LLMがSQLクエリを生成して検証・実行できるようになりました。これにより、データ探索がより容易になります。詳細はリンク先のドキュメントを参照してください。

# [ルート最適化されたエンドポイントは、クエリ用にルート最適化されたURLパスを必要とするようになりました。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#route-optimized-endpoints-now-require-route-optimized-url-path-for-querying)
**2025-09-22**
<p>新しく作成されたルート最適化エンドポイントは、すべてルート最適化URLを使用してクエリを実行する必要があります。2025年9月22日以降に作成されたルート最適化エンドポイントに対しては、標準のワークスペースURLパスを使用したクエリはサポートされません。</p>
<p><a href="https://docs.databricks.com/aws/ja/machine-learning/model-serving/query-route-optimization">ルート最適化サービスエンドポイントのクエリ</a>を参照してください。</p>

**ユーザーへのインパクト**

2025年9月22日以降に作成されるルート最適化エンドポイントは、標準のワークスペースURLパスではなく、ルート最適化されたURLパスを使用してクエリする必要があります。それまでは、両方のURLパスがサポートされます。したがって、Databricksユーザーは新しいエンドポイントを作成する際に、クエリ時に使用する正しいURL形式に注意する必要があります。具体的には、ルート最適化を有効にしたエンドポイントに対しては、ルート最適化されたURLでクエリを実行する必要があります。詳細については、<a href="https://docs.databricks.com/aws/ja/machine-learning/model-serving/query-route-optimization">ルート最適化サービスエンドポイントのクエリ</a>を参照してください。

# [アラート(ベータ版)の更新内容](https://docs.databricks.com/aws/en/release-notes/whats-coming#alerts-beta-updates)
**2025-09-19**
Databricksは、アラートを改善するための変更をリリースします。これには、APIの互換性を損なう変更が含まれます。これらの変更は<a href="https://docs.databricks.com/aws/ja/sql/user/alerts/legacy">従来のアラート</a>には影響しません。
アラートの詳細については、<a href="https://docs.databricks.com/aws/ja/sql/user/alerts">Databricks SQLアラート</a>を参照してください。

<h3>APIの互換性を損なう変更</h3>
以下のAlerts V2 APIのフィールドと値は、名前が変更されるか削除されます。
<ul>
<li>Create、Get、Update、List APIにおいて、<code>run_as_user_name</code>フィールドは削除されます。
<ul>
<li>代わりに<code>run_as</code>(リクエスト)と<code>effective_run_as</code>(レスポンス)を使用してください。</li>
</ul>
</li>
<li>List APIにおいて、<code>results</code>フィールドは<code>alerts</code>に名前が変更されます。</li>
<li>Create、Get、Update、List APIにおいて、<code>lifecycle_state</code>フィールドの<code>TRASHED</code>値は<code>DELETED</code>に名前が変更されます。</li>
<li>CreateとUpdate APIにおいて、<code>empty_result_state</code>に<code>UNKNOWN</code>はサポートされなくなります。</li>
</ul>
<div><p>これらのAPIを使用するインテグレーションは、2025年10月6日までに更新してください。SDKまたはTerraformを使用している場合は、最新バージョンにアップグレードしてください。</p></div>
APIリファレンスについては、<a href="https://docs.databricks.com/api/workspace/alertsv2">Alerts V2 API</a>を参照してください。

<h3><div></div> アラートの<code>UNKNOWN</code>ステータスの廃止</h3>
現在、アラートは、実行されたことがない場合、または空のSQL結果の処理として<code>UNKNOWN</code>が選択された場合に<code>UNKNOWN</code>として表示されます。この曖昧さを解消するために、以下の更新が行われます。
<ul>
<li>
<p><strong>2025年9月29日以降</strong></p>
<ul>
<li>実行されたことがないアラートは、UIでは<strong>Not

**ユーザーへのインパクト**

Databricks SQLアラートに関する更新により、以下の変更がユーザーに影響を及ぼします。

1. **APIの互換性を損なう変更**: Alerts V2 APIのいくつかのフィールドと値が変更または削除されます。具体的には、`run_as_user_name`フィールドの削除、`results`フィールドの`alerts`への名前変更、`lifecycle_state`フィールドの`TRASHED`値の`DELETED`への変更、および`empty_result_state`における`UNKNOWN`のサポート終了が含まれます。これらの変更は、2025年10月6日までにAPIを使用するインテグレーションを更新する必要があります。SDKまたはTerraformを使用している場合は、最新バージョンへのアップグレードが必要です。

2. **アラートの`UNKNOWN`ステータスの廃止**: これまでアラートは、実行されたことがない場合や空のSQL結果に対して`UNKNOWN`が選択された場合に`UNKNOWN`ステータスを表示していました。この曖昧さを解消するために、以下の変更が行われます。
   - 2025年9月29日以降、実行されたことがないアラートはUIで「Not run yet」として表示され、APIでは`lifecycle_state`が`ACTIVE`、`evaluation_status`が`UNKNOWN`、`alert_status`が`UNKNOWN`として表示されます。
   - 空の結果に対するアラートのステータスは、ユーザーが選択したオプション(`OK`または`ALERT`)に従います。アラート作成時にオプションが選択されていない場合、デフォルトで`OK`になります。

これらの変更は、Databricks SQLアラートを使用しているユーザーに影響を及ぼします。APIを使用している場合は、指定された期限までにインテグレーションを更新する必要があります。また、アラートのステータスの扱いが変更されるため、これらの変更を理解し、必要に応じてワークフローを調整する必要があります。詳細については、[Databricks SQLアラートのドキュメント](https://docs.databricks.com/aws/ja/sql/user/alerts)を参照してください。

# [AI/BI ダッシュボードGenieの統合と公開ダイアログの改善](https://docs.databricks.com/aws/en/ai-bi/release-notes/2025#aibi-dashboard-genie-integration-and-publish-dialog-improvements)
**2025-09-18**
<ul>
<li><strong>埋め込みダッシュボードのGenie認証情報処理:</strong> 埋め込み認証情報を使用して公開されたダッシュボードと統合されたGenieは、生成されたクエリを発行者のデータ認証情報を使用して実行するようになりました。埋め込み認証情報なしで公開されたダッシュボードは、閲覧者のデータ認証情報を使用して引き続き実行されます。</li>
<li><strong>簡略化された公開ダイアログ:</strong> ダッシュボードの公開ダイアログが再設計され、簡素化されました。Genie統合のトグルは、ダッシュボード設定に移動されました。</li>
</ul>

**ユーザーへのインパクト**

Databricksユーザーは、AI/BIダッシュボードGenieの統合と公開ダイアログの改善による影響を受けます。主な変更点は以下の通りです:

1. **Genieの認証情報処理の変更**:埋め込み認証情報を使用して公開されたダッシュボードに統合されたGenieは、発行者のデータ認証情報を使用してクエリを実行します。一方、埋め込み認証情報なしで公開されたダッシュボードは、閲覧者の認証情報を使用し続けます。
2. **公開ダイアログの簡素化**:ダッシュボードの公開ダイアログが簡素化され、Genie統合のトグルがダッシュボード設定に移動しました。

これらの変更により、ユーザーはよりシンプルな公開プロセスを利用でき、Genie統合のセキュリティと認証情報の処理が改善されます。

# [Genie SQLの改善、APIの強化、およびバグ修正](https://docs.databricks.com/aws/en/ai-bi/release-notes/2025#genie-sql-improvements-api-enhancements-and-bug-fixes)
**2025-09-18**
<ul>
<li><strong>LLMモデルのアップグレード:</strong> GenieがSQLを作成するために使用するLLMモデルがアップグレードされ、精度とパフォーマンスが向上しました。</li>
<li><strong>SQLオートコンプリート:</strong> Genie SQLの編集時にオートコンプリートが利用できるようになり、ユーザーがより効率的にクエリを書くことができるようになりました。</li>
<li><strong>フィードバックAPIエンドポイント:</strong> Genieの回答に対するユーザーのフィードバックを収集するための「いいね」および「よくないね」フィードバックAPIエンドポイントが利用できるようになりました。</li>
<li><strong>推奨フォローアップ質問API:</strong> APIを介した推奨フォローアップ質問が利用できるようになりました。</li>
<li><strong>コンシューマー権限APIへのアクセス:</strong> ワークスペースコンシューマー権限を持つユーザーがAPIスイートを使用できるようになりました。</li>
<li><strong>APIレスポンスのウェアハウスID:</strong> Genieスペースに対するGET APIリクエストには、スペースに関連付けられた<code>warehouse_id</code>が含まれるようになりました。</li>
</ul>

**ユーザーへのインパクト**

DatabricksのGenieに関するリリースノートの要点は以下の通りです。

* Genieが生成するSQLの精度とパフォーマンスが向上しました。
* Genie SQLの編集時にオートコンプリートが利用できるようになり、クエリの作成が効率化されました。
* Genieの回答に対するユーザーのフィードバックを収集するためのAPIエンドポイントが追加されました。
* APIを介して推奨フォローアップ質問を取得できるようになりました。
* ワークスペースコンシューマー権限を持つユーザーがAPIを利用できるようになりました。
* Genieスペースに対するGET APIリクエストのレスポンスに、関連付けられたウェアハウスIDが含まれるようになりました。

これらの変更により、DatabricksユーザーはGenieをより効果的に活用し、クエリの作成やGenieとのインタラクションをより効率的に行うことができるようになりました。

# [Mosaic AI Vector Searchの標準エンドポイントのコンプライアンスサポート](https://docs.databricks.com/aws/en/release-notes/product/2025/september#compliance-support-for-mosaic-ai-vector-search-standard-endpoints)
**2025-09-18**
Mosaic AI Vector Searchの標準エンドポイントが、FedRAMP ModerateおよびIRAPワークスペースで利用できるようになりました。詳細は<a href="https://docs.databricks.com/aws/ja/generative-ai/vector-search">Mosaic AI Vector Search</a>をご覧ください。

**ユーザーへのインパクト**

Mosaic AI Vector Searchの標準エンドポイントが、FedRAMP ModerateおよびIRAPワークスペースで利用できるようになりました。これにより、これらのコンプライアンス要件を満たすワークスペースで、Mosaic AI Vector Searchを利用できます。Databricksユーザーは、コンプライアンスを維持しながら、Mosaic AI Vector Searchをより安全に活用できます。

# [Databricks Oneの一般提供開始前の試験公開](https://docs.databricks.com/aws/en/release-notes/product/2025/september#databricks-one-public-preview)
**2025-09-17**
ビジネスユーザー向けに設計された簡素化されたユーザーインターフェースであるDatabricks Oneが、パブリックプレビューで利用できるようになりました。Databricks Oneは、コンピュートリソース、クエリ、モデル、ノートブックの技術的な知識がなくても、DatabricksのデータとAIを操作するための単一の直感的なエントリポイントを提供します。
<p>Databricks Oneを使用すると、ビジネスユーザーは以下のことが可能になります。</p>
<ul>
<li>KPIを追跡し、メトリクスを分析するために、AI/BIダッシュボードを表示および操作する。</li>
<li>AI/BI Genieを使用して、自然言語でデータに関する質問をする。</li>
<li>分析、AI、およびワークフローを組み合わせたカスタムビルドのDatabricksアプリを使用する。</li>
</ul>
<p>ワークスペースの管理者は、管理者コンソールのプレビューページからDatabricks Oneを有効にすることができます。</p>
<p><a href="https://docs.databricks.com/aws/ja/workspace/databricks-one">Databricks One とは何ですか?</a>を参照してください。</p> 
は以下のように翻訳されます。
ビジネスユーザー向けに設計された簡素化されたユーザーインターフェースであるDatabricks Oneが、パブリックプレビューで利用できるようになりました。Databricks Oneは、DatabricksのデータとAIを操作するための単一の直感的なエントリポイントを提供します。これを使用するために、コンピュートリソース、クエリ、モデル、ノートブックに関する専門的な知識は必要ありません。

Databricks Oneを使用すると、ビジネスユーザーは以下のことが可能になります。
* KPIを追跡し、メトリクスを分析するために、AI/BIダッシュボードを表示および操作する。
* AI/BI Genieを使用して、自然言語でデータに関する質問をする。
* 分析、AI、およびワークフローを組み合わせたカスタムビルドのDatabricksアプリを使用する。

ワークスペースの管理者は、管理者コンソールのプレビューページからDatabricks Oneを有効にすることができます。
Databricks Oneについての詳細は、[Databricks One とは何ですか?](/aws/en/workspace/databricks-one)を参照してください。

**ユーザーへのインパクト**

Databricks Oneがパブリックプレビューで利用できるようになりました。Databricks Oneは、ビジネスユーザーがDatabricksのデータとAIと対話するための簡素化されたインターフェースを提供します。ビジネスユーザーは、AI/BIダッシュボードの表示・操作、自然言語でのデータに関する質問、カスタムのDatabricksアプリの使用が可能になります。ワークスペース管理者は、管理者コンソールからDatabricks Oneを有効にできます。

# [Data Science Agentは、Amazon Bedrock経由で提供されるモデルも使用します。](https://docs.databricks.com/aws/en/release-notes/whats-coming#the-data-science-agent-will-also-use-models-served-through-amazon-bedrock)
**2025-09-17**
Databricksアシスタントは、<a href="https://docs.databricks.com/aws/ja/databricks-ai/databricks-ai-trust">パートナーが提供するAI機能</a>が有効になっている場合、<a href="https://docs.databricks.com/aws/ja/notebooks/ds-agent">Data Science Agent</a>の一部として、Amazon Bedrock経由で提供されるモデルを間もなく使用するようになります。

**ユーザーへのインパクト**

Databricksのユーザーは、Data Science Agentを使用する際に、Amazon Bedrock経由で提供されるモデルを活用できるようになります。これにより、より幅広いAI機能を利用してデータサイエンスの作業を効率化できる可能性があります。ただし、パートナーが提供するAI機能が有効になっている必要があります。

# [レイクハウスフェデレーションの共有とデフォルトストレージ](https://docs.databricks.com/aws/en/release-notes/whats-coming#lakehouse-federation-sharing-and-default-storage)
**2025-09-16**
<p>レイクハウスフェデレーションでのDelta Sharingはベータ版であり、Delta Sharingデータプロバイダが外部カタログやテーブルを共有できるようになります。デフォルトでは、データを一時的にマテリアライズしてデフォルトストレージに保存する必要があります。現在、ユーザーは、アカウントコンソールで<strong>デフォルトストレージのためのDelta Sharing &#8211; Expanded Access</strong>機能を手動で有効にして、レイクハウスフェデレーション共有を使用する必要があります。</p>
<p><strong>デフォルトストレージのためのDelta Sharing &#8211; Expanded Access</strong>がすべてのDatabricksユーザーに対してデフォルトで有効になると、デフォルトストレージがサポートされているリージョンで、レイクハウスフェデレーション上のDelta Sharingが自動的に利用可能になります。</p>
<p>「<a href="https://docs.databricks.com/aws/ja/storage/default-storage">サーバレスワークスペースにおけるデフォルトストレージ</a>」および「<a href="https://docs.databricks.com/aws/ja/delta-sharing/create-share#foreign-asset">共有に外部スキーマまたはテーブルを追加する</a>」を参照してください。</p>

**ユーザーへのインパクト**

Delta Sharing - Expanded Access for Default StorageがすべてのDatabricksユーザーに対してデフォルトで有効になると、デフォルトストレージがサポートされているリージョンでレイクハウスフェデレーション上のDelta Sharingが自動的に利用可能になります。これにより、ユーザーはアカウントコンソールで手動で機能を有効にする必要がなくなります。したがって、Databricksユーザーは、レイクハウスフェデレーションの共有をより簡単に利用できるようになり、外部カタログやテーブルをDelta Sharingで共有する際の手間が軽減されます。

# [Databricks Runtime 17.2が一般提供開始されました。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#databricks-runtime-172-is-now-is-now-ga)
**2025-09-16**
<p>Databricks Runtime 17.2 が一般提供されるようになりました。 <a href="https://docs.databricks.com/aws/ja/release-notes/runtime/17.2">Databricks Runtime 17.2</a>を参照してください。</p>

**ユーザーへのインパクト**

Databricks Runtime 17.2が一般提供されました。主な変更点や新機能については[Databricks Runtime 17.2のドキュメント](https://docs.databricks.com/aws/ja/release-notes/runtime/17.2)を参照してください。このバージョンのアップデート内容を確認することで、Databricksユーザーは新機能の活用やパフォーマンスの改善、バグ修正に関する情報を得ることができます。

# [Lakehouse FederationでのDelta Sharingはベータ版です。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#delta-sharing-on-lakehouse-federation-is-in-beta)
**2025-09-16**
<p>Delta Sharingを使用して、Databricks間共有およびオープン共有でのクエリフェデレーションで作成された外部スキーマおよびテーブルを共有できるようになりました。 <a href="https://docs.databricks.com/aws/ja/delta-sharing/create-share#foreign-asset">共有に外部スキーマまたはテーブルを追加する</a> および <a href="https://docs.databricks.com/aws/ja/delta-sharing/read-data-databricks#foreign-tables">共有された外部テーブルまたは外部スキーマのデータを読み取る</a> を参照してください。</p>

**ユーザーへのインパクト**

Delta Sharingを使用して、他のDatabricks組織と外部スキーマやテーブルを共有できるようになりました。これにより、Lakehouse Federationで作成された外部スキーマやテーブルも共有対象となります。共有方法については、[共有に外部スキーマまたはテーブルを追加する](https://docs.databricks.com/aws/ja/delta-sharing/create-share#foreign-asset)および[共有された外部テーブルまたは外部スキーマのデータを読み取る](https://docs.databricks.com/aws/ja/delta-sharing/read-data-databricks#foreign-tables)を参照してください。

# [ワークスペースの再読み込み通知](https://docs.databricks.com/aws/en/release-notes/whats-coming#reload-notification-in-workspaces)
**2025-09-13**
近日リリース予定のバージョンにおいて、ワークスペースタブを長い間開いたまま更新していない場合に、ワークスペースタブをリロードするようにメッセージが表示されます。これにより、最新の機能や修正が含まれたDatabricksの最新バージョンを常に使用していることが保証されます。

**ユーザーへのインパクト**

Databricksの近日リリース予定のバージョンでは、ワークスペースタブを開いたまま長い間更新していない場合に再読み込みを促すメッセージが表示されるようになります。これにより、ユーザーは常に最新の機能や修正を含むDatabricksのバージョンを利用できるようになります。つまり、ユーザーは定期的にワークスペースタブを更新する必要があり、これによりDatabricksの最新機能やバグ修正が反映されることになります。

# [既存の共有カタログにマウントデルタを共有します。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#mount-delta-shares-to-an-existing-shared-catalog)
**2025-09-12**
<p>Delta Sharingの受信者は、Delta Sharingプロバイダーから受け取った共有を既存の共有カタログにマウントできるようになりました。これまでは、受信者は新しい共有ごとに新しいカタログを作成する必要がありました。「<a href="https://docs.databricks.com/aws/ja/delta-sharing/read-data-databricks#create-catalog">共有からカタログを作成する</a>」を参照してください。</p>

**ユーザーへのインパクト**

Delta Sharing受信者は、受け取った共有を新しいカタログを作成するのではなく、既存のカタログにマウントできるようになりました。これにより、複数の共有を一つのカタログで管理でき、柔軟性が向上します。

# [ジーニー・チャートの修正と機能強化](https://docs.databricks.com/aws/en/ai-bi/release-notes/2025#genie-chart-fixes-and-feature-enhancements)
**2025-09-11**
<ul>
<li><strong>日付をビニングしたチャートの細いバーに関する問題の修正:</strong> 日付をビニングした棒グラフで、非常に細いバーが表示される問題を解決しました。</li>
<li><strong>単一ポイントのマップに関する問題の修正:</strong> 1つのポイントのみが存在する場合でも、ポイントマップが正しく表示されるようになりました。</li>
<li><strong>値ディクショナリの上限の引き上げ:</strong> スペースには最大120の値ディクショナリを含めることができます。新規に作成されたスペースでは、自動的に120列が選択されます。既存のスペースでは、作成者が設定を構成してさらに値ディクショナリを追加できます。詳細は<a href="https://docs.databricks.com/aws/ja/genie/knowledge-store#add-value-dict">値ディクショナリの設定</a>を参照してください。</li>
<li><strong>パーセンテージに関する質問の精度向上:</strong> Genieは、コンバージョン率などのパーセンテージ型のクエリに対して、より正確な結果を返すようになり、小数点第2位まで正しく丸められるようになりました。</li>
<li><strong>保存されていない指示に関する警告ダイアログの問題修正:</strong> 保存されていない指示の変更に関する警告ダイアログが正しく閉じるようになりました。</li>
<li><strong>100の指示を含むスペースのクローンに関する問題の修正:</strong> 100の指示を含むスペースが正常にクローンできるようになりました。</li>
<li><strong>設定ページのスペースIDフィールド:</strong> 設定ページに新しいフィールドが追加され、ユーザーがGenieスペースIDを直接コピーしてGenieスペースエージェントの構築に使用できるようになりました。</li>
<li><strong>Public Previewでのファイルアップロード:</strong> Workspaceの管理者は、プレビューページから<strong>Genie - ファイルアップロード</strong>機能を管理できるようになりました。詳細は<a href="https://docs.databricks.com/aws/ja/genie/file-upload">ファイルのアップロード</a>を参照してください。</li>
</ul>

**ユーザーへのインパクト**

このリリースノートでは、DatabricksのGenieに関する修正と機能強化が記載されています。以下は、Databricksユーザーへの影響の簡潔なまとめです:

* ジーニーのチャートに関するいくつかの問題が修正されました。日付をビニングした棒グラフの細いバー、マップの単一ポイント表示、保存されていない指示の警告ダイアログなどです。
* 値ディクショナリの上限が引き上げられ、新規スペースでは最大120の値ディクショナリが利用可能になりました。既存のスペースでは、管理者が設定を構成してさらに追加できます。
* Genieはパーセンテージ型のクエリに対してより正確な結果を返すようになり、小数点第2位まで正しく丸められるようになりました。
* 設定ページにGenieスペースIDをコピーするための新しいフィールドが追加され、Genieスペースエージェントの構築が容易になりました。
* Workspaceの管理者は、プレビューページからGenieのファイルアップロード機能を管理できるようになりました。

これらの変更により、Genieを使用するDatabricksユーザーは、より正確で信頼性の高い結果を得られ、Genieスペースの管理が容易になります。

# [UI で構成されたサーバーレスジョブとパイプラインは、デフォルトでパフォーマンスが最適化されるようになりました。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#serverless-jobs-and-pipelines-configured-in-the-ui-are-now-performance-optimized-by-default)
**2025-09-11**
UI で構成されたサーバーレスジョブおよびパイプラインは、デフォルトで「パフォーマンス最適化」に設定されるようになりました。これにより、API、Terraform、SDK 全体で既存のデフォルトに UI が整合されます。詳細については、「<a href="https://docs.databricks.com/aws/ja/jobs/run-serverless-jobs#performance">サーバーレスジョブのパフォーマンスモード</a>」および「<a href="https://docs.databricks.com/aws/ja/dlt/serverless-dlt#performance">サーバーレスパイプラインのパフォーマンスモード</a>」を参照してください。

**ユーザーへのインパクト**

Databricksユーザーは、UIで構成されたサーバーレスジョブとパイプラインのパフォーマンスがデフォルトで最適化されるようになったことを理解する必要があります。これにより、既存のAPI、Terraform、SDKのデフォルト設定とUIが一貫するようになります。つまり、ユーザーはこれらのジョブやパイプラインを作成する際に、パフォーマンス最適化の設定を明示的に行わなくても、パフォーマンスが向上することが期待できます。詳細については、提供されたドキュメントリンクを参照してください。

# [AI/BI ダッシュボードのテキストウィジェットおよびパフォーマンスの改善](https://docs.databricks.com/aws/en/ai-bi/release-notes/2025#aibi-dashboard-text-widget-and-performance-improvements)
**2025-09-11**
<ul>
<li><strong>テキストウィジェットエディターの強化:</strong> ダッシュボードのテキストウィジェットが、テキストのフォーマット、リンクの追加、画像の挿入を行う強化されたUIになりました。</li>
<li><strong>パフォーマンスの低下を修正:</strong> ページの読み込みに失敗する、URLパラメーターが正しく適用されないなどのパフォーマンス低下を引き起こしていた問題を解決しました。</li>
</ul>

**ユーザーへのインパクト**

Databricksユーザーは、AI/BIダッシュボードのテキストウィジェットでより多くのフォーマットオプションを利用でき、全体的なダッシュボードのパフォーマンスが向上します。具体的には、テキストのフォーマット、リンクの追加、画像の挿入が容易になり、ページ読み込みの問題やURLパラメータの誤適用が減ります。

# [Lakeflow宣言型パイプラインが、パブリックプレビューでストリーム進行状況メトリクスをサポートするようになりました。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#lakeflow-declarative-pipelines-now-supports-stream-progress-metrics-in-public-preview)
**2025-09-10**
<p>Lakeflowの宣言的パイプラインは、ストリームの進行状況に関するメトリクスについてイベントログを照会できるようになりました。 <a href="https://docs.databricks.com/aws/ja/dlt/monitor-event-logs#stream-progress">パイプラインストリーミングメトリクスの監視</a>を参照してください。</p>

**ユーザーへのインパクト**

Databricks Lakeflowの宣言的パイプラインがパブリックプレビューでストリーム進行状況メトリクスをサポートするようになったことにより、ユーザーはイベントログを通じてストリーミングデータの処理進捗をより詳細に把握できるようになります。これにより、パイプラインの監視とデバッグが容易になり、データ処理の効率性と信頼性が向上します。ユーザーは、提供されたドキュメントリンク(https://docs.databricks.com/aws/ja/dlt/monitor-event-logs#stream-progress)を参照することで、パイプラインストリーミングメトリクスの監視方法について詳しく知ることができます。

# [Databricks 用 SAP Business Data Cloud (BDC) コネクタが一般提供開始です。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#the-sap-business-data-cloud-bdc-connector-for-databricks-is-generally-available)
**2025-09-10**
SAP BDC Connectorを使用すると、SAP BDCとUnity Catalogが有効なDatabricksワークスペース間で、安全なゼロコピーデータ共有が可能になります。Databricks上でSAP BDCデータにアクセスして分析し、DatabricksのデータアセットをSAP BDCと共有して、両プラットフォーム間で統一された分析を行います。
<a href="https://docs.databricks.com/aws/ja/delta-sharing/sap-bdc">SAP Business Data Cloud (BDC) とDatabricks間でデータを共有する</a>を参照してください。

**ユーザーへのインパクト**

DatabricksとSAP Business Data Cloud (BDC)間のゼロコピーデータ共有が一般提供されました。これにより、Databricks上でSAP BDCのデータにアクセスして分析したり、DatabricksのデータをSAP BDCと共有して両プラットフォームで統一された分析が可能になります。詳細はドキュメントを参照してください。

# [Google AnalyticsのRaw DataコネクタGA](https://docs.databricks.com/aws/en/release-notes/product/2025/september#google-analytics-raw-data-connector-ga)
**2025-09-10**
<p>Lakeflow ConnectのGoogle Analytics Raw Dataコネクタが一般提供開始されました。詳しくは<a href="https://docs.databricks.com/aws/ja/ingestion/lakeflow-connect/google-analytics-source-setup">Databricksにデータを取り込むためのGoogle Analytics 4とGoogle BigQueryのセットアップ</a>をご覧ください。</p>

**ユーザーへのインパクト**

Google Analytics Raw Dataコネクタが一般提供開始されたため、Databricksユーザーは簡単にGoogle Analytics 4のデータをDatabricksに取り込むことができるようになりました。これにより、LakeFlow Connectを利用してGoogle BigQueryからDatabricksへのデータ連携が容易になります。

# [Lakeflow Declarative Pipelinesでは、Pythonのカスタムデータソースを使用することができます。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#python-custom-data-sources-can-be-used-with-lakeflow-declarative-pipelines)
**2025-09-10**
<p>レイクフロー宣言型パイプラインのパイプライン定義では、Pythonカスタムデータソースとシンクを使用できます。</p>
<p>Pythonカスタムデータソースについては、以下の情報を参照してください。</p>
<ul>
<li><a href="https://docs.databricks.com/aws/ja/dlt/load#python-data-source">Pythonカスタムデータソースからデータをロードする</a>。</li>
<li><a href="https://docs.databricks.com/aws/ja/dlt/dlt-sinks#dlt-sink-configure">レイクフロー宣言型パイプラインシンクを作成する</a>。</li>
<li><a href="https://docs.databricks.com/aws/ja/pyspark/datasources">PySparkカスタムデータソース</a>。</li>
</ul>

**ユーザーへのインパクト**

Databricks Lakeflow Declarative Pipelinesで、Pythonカスタムデータソースとシンクがサポートされるようになりました。これにより、パイプライン定義でPythonカスタムデータソースを利用できます。詳細は、Pythonカスタムデータソース、レイクフロー宣言型パイプラインシンク、PySparkカスタムデータソースのドキュメントを参照してください。

# [Databricks Runtime のメンテナンス更新](https://docs.databricks.com/aws/en/release-notes/product/2025/september#databricks-runtime-maintenance-update)
**2025-09-08**
<p>サポートされている Databricks Runtime バージョンについては、新しいメンテナンス更新が利用可能です。これらの更新には、バグの修正、セキュリティ パッチ、およびパフォーマンスの向上が含まれます。詳細については、「<a href="https://docs.databricks.com/aws/ja/release-notes/runtime/maintenance-updates">Databricks Runtime のメンテナンス更新</a>」を参照してください。</p>

**ユーザーへのインパクト**

Databricks Runtimeのメンテナンス更新により、バグの修正、セキュリティパッチ、およびパフォーマンスの向上が行われます。サポートされているDatabricks Runtimeバージョンのユーザーは、更新されたバージョンを利用できます。詳細については、提供されたリンク(https://docs.databricks.com/aws/ja/release-notes/runtime/maintenance-updates)を参照してください。

# [GenieリソースのDatabricks Appsサポート](https://docs.databricks.com/aws/en/release-notes/product/2025/september#databricks-apps-support-for-genie-resources)
**2025-09-08**
Databricks Apps では現在、アプリ リソースとして AI/BI Genie スペースを追加し、キュレーションされたデータセットに対して自然言語クエリを実行できるようになりました。詳細は<a href="https://docs.databricks.com/aws/ja/dev-tools/databricks-apps/genie">Databricks アプリに Genie スペース リソースを追加する</a>を参照してください。

**ユーザーへのインパクト**

Databricks AppsでAI/BI Genieスペースをアプリリソースとして追加できるようになりました。これにより、自然言語でキュレーションされたデータセットに対してクエリを実行できます。詳細はドキュメントを参照してください。

# [Databricks 用 SAP Business Data Cloud (BDC) コネクタが近日中に一般提供開始予定です。](https://docs.databricks.com/aws/en/release-notes/whats-coming#sap-business-data-cloud-bdc-connector-for-databricks-will-soon-be-generally-available)
**2025-09-08**
SAP Business Data Cloud (BDC) Connector for Databricksは、Delta Sharingを使用してSAP BDCからDatabricks、DatabricksからSAP BDCへデータを共有できる新機能です。本機能は近日中に一般提供を開始する予定です。

**ユーザーへのインパクト**

Databricks用のSAP Business Data Cloud(BDC)コネクタが近日中に一般提供開始予定であることを受け、DatabricksユーザーはDelta Sharingを通じてSAP BDCとの間でデータを簡単に共有できるようになります。これにより、SAP BDCからDatabricksへ、またはDatabricksからSAP BDCへデータをシームレスに転送し、データ統合と分析のプロセスが大幅に簡素化されます。ユーザーは、今後この新機能を利用するための準備を進めることができます。

# [Microsoft Power PlatformのDatabricksコネクタはパブリックプレビュー中です。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#databricks-connector-in-microsoft-power-platform-is-in-public-preview)
**2025-09-05**
Power PlatformでDatabricksコネクションを作成することにより、Power Appsのキャンバスアプリ、Power Automateのフロー、Copilot StudioのエージェントでDatabricksデータを使用します。

詳細は、<a href="https://docs.databricks.com/aws/ja/integrations/msft-power-platform">Microsoft Power PlatformからDatabricksに接続する</a>を参照してください。

**ユーザーへのインパクト**

Microsoft Power PlatformのDatabricksコネクタがパブリックプレビューで利用可能になりました。これにより、DatabricksユーザーはPower Apps、Power Automate、Copilot StudioでDatabricksデータを簡単に活用できます。具体的には、Power PlatformでDatabricksへの接続を作成し、Databricksのデータをキャンバスアプリ、フロー、エージェントで利用できるようになります。詳細な手順や使用方法については、Databricksのドキュメントを参照してください。

# [システムテーブルでMLflowメタデータが利用できるようになりました(パブリックプレビュー)](https://docs.databricks.com/aws/en/release-notes/product/2025/september#mlflow-metadata-is-now-available-in-system-tables-public-preview)
**2025-09-05**
MLflowメタデータがシステムテーブルで利用できるようになりました。<a href="https://docs.databricks.com/aws/ja/mlflow/tracking">MLflow tracking service</a>内で管理されるメタデータを、ワークスペース全体から1つの中央の場所で参照できます。さらに、Databricksが提供するカスタムAI/BIダッシュボードの構築、SQLアラート、大規模なデータ分析クエリなどのレイクハウスツールを利用できます。

詳細については、<a href="https://docs.databricks.com/aws/ja/admin/system-tables/mlflow">MLflow システムテーブルリファレンス</a>を参照してください。

**ユーザーへのインパクト**

MLflowメタデータがシステムテーブルで利用できるようになり、ワークスペース全体のメタデータを一元的に参照できるようになりました。これにより、Databricksのレイクハウスツールを活用してカスタムのAI/BIダッシュボードの構築、SQLアラート、大規模なデータ分析クエリが可能になります。

# [Databricks オンライン特徴量ストア (パブリックプレビュー)](https://docs.databricks.com/aws/en/release-notes/product/2025/september#databricks-online-feature-stores-public-preview)
**2025-09-05**
<p>Databricks Online Feature Storesは、Lakebaseによって提供され、オフラインの特徴テーブルとの一貫性を保ちながら、特徴データへの高度にスケーラブルな低遅延アクセスを提供します。Unity Catalog、MLflow、Mosaic AI Model Servingとのネイティブな統合により、モデルエンドポイント、エージェント、ルールエンジンをプロダクション化し、高パフォーマンスを維持しながらオンライン特徴ストアから特徴に自動的かつ安全にアクセスできるようになります。</p>
<p>詳細は<a href="https://docs.databricks.com/aws/ja/machine-learning/feature-store/online-feature-store">Databricks Online Feature Stores</a>を参照してください。</p>

**ユーザーへのインパクト**

Databricks Online特徴量ストアがパブリックプレビューで利用可能になりました。これにより、ユーザーはオフライン特徴テーブルと一貫性のある特徴データに低遅延でアクセスできます。Unity CatalogやMLflowとの統合により、モデルエンドポイントやエージェントがオンライン特徴ストアから自動的かつ安全に特徴データを取得できるようになり、プロダクション環境でのパフォーマンスが向上します。

# [サーバーレスGPUコンピューティングがH100アクセラレータをサポート (ベータ版)](https://docs.databricks.com/aws/en/release-notes/product/2025/september#serverless-gpu-compute-now-supports-h100-accelerators-beta)
**2025-09-05**
サーバーレスGPUコンピューティングが、シングルノードのワークフローおよびジョブ向けのオンデマンドH100アクセラレータをサポートするようになりました。この機能はベータ版です。

<a href="https://docs.databricks.com/aws/ja/compute/serverless/gpu">サーバーレスGPUコンピューティング</a>を参照してください。

**ユーザーへのインパクト**

サーバーレスGPUコンピューティングが、シングルノードのワークフローおよびジョブでH100アクセラレータをサポートするようになりました。これにより、Databricksユーザーはより高度なGPUアクセラレーションを活用できます。この機能は現在ベタ版であり、今後のアップデートにご期待ください。詳細はドキュメント(https://docs.databricks.com/aws/ja/compute/serverless/gpu)を参照してください。

# [AI/BIダッシュボードのアクティブフィルタバーと視覚化の改善](https://docs.databricks.com/aws/en/ai-bi/release-notes/2025#aibi-dashboard-active-filter-bar-and-visualization-improvements)
**2025-09-04**
<ul>
<li><strong>有効なフィルター バー:</strong> 新しいフィルター バーには、ダッシュボードで有効なフィルターがすべて表示されます。グローバルまたはページ レベルのフィルターで <strong>すべて</strong> に設定されていないもの、およびクロスフィルターがこのバーに表示されます。</li>
<li><strong>日付フィールドの最小および最大集計:</strong> 日付フィールドで、最小および最大集計がサポートされるようになりました。</li>
<li><strong>改善されたヒストグラム ラベル:</strong> ヒストグラムで、各ビンの開始と終了の両方が表示されるようになりました (従来は開始のみ)。</li>
</ul>

**ユーザーへのインパクト**

Databricksユーザーは、AI/BIダッシュボードで以下の改善点を活用できます。

* 有効なフィルター バーが表示され、ダッシュボード上で現在有効なフィルター(グローバルまたはページ レベルのフィルター、およびクロスフィルター)を一目で確認できます。
* 日付フィールドで最小値および最大値の集計がサポートされるようになり、より柔軟なデータ分析が可能になります。
* ヒストグラムのラベルが改善され、各ビンの開始と終了の両方が表示されるようになり、データの分布をより正確に把握できます。

# [新しい Genie API エンドポイントと改善されたベンチマーク](https://docs.databricks.com/aws/en/ai-bi/release-notes/2025#new-genie-api-endpoints-and-improved-benchmarks)
**2025-09-04**
* **新しいAPIエンドポイント**: 会話の管理と分析に利用可能な新しいエンドポイントは以下の通りです:
    * [会話メッセージの一覧](https://docs.databricks.com/api/workspace/genie/listconversationmessages)
    * [会話メッセージの削除](https://docs.databricks.com/api/workspace/genie/deleteconversationmessage)
    * [全ての会話の一覧](https://docs.databricks.com/api/workspace/genie/listconversations)

    更なるガイドについては、[Genie APIを使用するためのベストプラクティス](/aws/en/genie/conversation-api#best-practice-api)を参照してください。
* **統合された権限API**: GenieはDatabricks権限APIを使用するようになりました。[権限](https://docs.databricks.com/api/workspace/permissions)を参照してください。
* **ベンチマーク評価の改善**: 評価機能がより柔軟に結果を分類するようになりました。詳細については、[評価結果の解釈](/aws/en/genie/benchmarks#ratings)を参照してください。

**ユーザーへのインパクト**

Databricksユーザーは、Genie APIの新機能と改善により以下のような影響を受けます:

1. **より柔軟な会話管理**: 新しいAPIエンドポイント(会話メッセージの一覧、会話メッセージの削除、全ての会話の一覧)により、会話の管理と分析が容易になります。
2. **一貫した権限管理**: GenieがDatabricks権限APIを使用するようになったため、権限管理が一貫して行えるようになります。
3. **より柔軟な評価結果**: ベンチマーク評価の改善により、評価結果の分類がより柔軟になり、結果の解釈が容易になります。

これらの変更により、DatabricksユーザーはGenieの機能をより効果的に活用できるようになります。

# [Databricks Assistant Agent Mode: データサイエンスエージェントはベータ版です](https://docs.databricks.com/aws/en/release-notes/product/2025/september#databricks-assistant-agent-mode-data-science-agent-is-in-beta)
**2025-09-03**
<p>Databricks Assistant のエージェントモードがベータ版として利用できるようになりました。エージェントモードでは、1 つのプロンプトから複数ステップのワークフローを調整できます。</p>
<p>データサイエンスエージェントは、データ サイエンス ワークフロー用にカスタムで構築されており、EDA、予測、機械学習などのタスク用のノートブックを最初から構築できます。プロンプトを使用して、ソリューションを計画し、関連するアセットを取得し、コードを実行し、セル出力を使用して結果を改善し、エラーを自動的に修正できます。</p>
<p>「<a href="https://docs.databricks.com/aws/ja/notebooks/ds-agent">データ サイエンス エージェントの使用</a>」を参照してください。</p>

**ユーザーへのインパクト**

Databricks Assistantのエージェントモードがベータ版として利用可能になりました。データサイエンスエージェントを使用すると、プロンプトから複数ステップのデータサイエンスワークフローを自動化できます。これにより、探索的データ分析(EDA)、予測、機械学習などのタスクのためのノートブックを自動生成できます。ユーザーは、ソリューションの計画、アセットの取得、コードの実行、結果の改善、エラーの自動修正を簡単に行えるようになり、作業効率が向上します。詳細は、公式ドキュメント「データ サイエンス エージェントの使用」を参照してください。

# [デフォルトのストレージに支えられたテーブルは、任意の受信者にDelta Sharedされる可能性があります(ベータ版)。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#tables-backed-by-default-storage-can-be-delta-shared-to-any-recipient-beta)
**2025-09-02**
Delta Sharingプロバイダーは、デフォルトのストレージに支えられたテーブルを、オープンなレシーピエントとDatabricksレシーピエントの両方を含む、あらゆるレシーピエントと共有できるようになりました。レシーピエントがクラシックコンピュートを使用している場合でも同様です。ただし、パーティショニングが有効になっているテーブルは例外です。
<a href="https://docs.databricks.com/aws/ja/storage/default-storage#limitations">制限事項</a>をご覧ください。

**ユーザーへのインパクト**

Delta Sharingを利用するDatabricksユーザーは、デフォルトストレージで管理されているテーブルを、他のDatabricksユーザーや外部の受信者と簡単に共有できるようになりました。これにより、データ共有の柔軟性が向上します。ただし、パーティショニングが有効なテーブルについては共有できないという制約があるため、共有前にテーブル設定の確認が必要です。

# [レガシー公開モードからLakeflow宣言型パイプラインへの移行がパブリックプレビューにロールバックされました。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#migrate-lakeflow-declarative-pipelines-from-legacy-publishing-mode-is-rolled-back-to-public-preview)
**2025-09-02**
<p>レイクフロー宣言的パイプラインには、以前はパブリッシングを単一のカタログとスキーマに制限していたレガシーパブリッシングモードが含まれています。デフォルトのパブリッシングモードでは、複数のカタログやスキーマへのパブリッシングが可能になります。一般提供として最近リリースされた機能は、レガシーパブリッシングモードからデフォルトのパブリッシングモードへの移行に役立ちます。リリース後に問題が発見されたため、移行機能はパブリックプレビュー ステータスと機能にロールバックされました。</p>
<p><a href="https://docs.databricks.com/aws/ja/dlt/migrate-to-dpm">パイプラインでデフォルトのパブリッシングモードを有効にする</a></p>

**ユーザーへのインパクト**

Databricksユーザーは、レガシー公開モードからLakeflow宣言型パイプラインへの移行機能がパブリックプレビューにロールバックされたことを認識しておく必要があります。これは、デフォルトのパブリッシングモードへの移行に問題があったためです。ユーザーは引き続き、パイプラインでデフォルトのパブリッシングモードを有効にすることができますが、一般提供の移行機能は利用できません。代わりに、パブリックプレビューの移行機能を使用する必要があります。詳細については、Databricksのドキュメントを参照してください。

# [C5コンプライアンスコントロールです。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#c5-compliance-controls)
**2025-09-02**
<p>C5コンプライアンスコントロールは、ワークスペースのコンプライアンスに役立つ強化機能を提供します。C5は、クラウドサービスプロバイダーの最低限のセキュリティ要件を定義する、ドイツ連邦情報セキュリティ局 (BSI) の標準です。<a href="https://docs.databricks.com/aws/ja/security/privacy/c5">クラウドコンピューティングコンプライアンスクライテリアカタログ (C5)</a> を参照してください。</p>

**ユーザーへのインパクト**

Databricksは、C5コンプライアンスコントロールの強化により、ドイツ連邦情報セキュリティ局(BSI)のクラウドコンピューティングコンプライアンスクライテリアカタログ(C5)の要件を満たすようになりました。これにより、Databricksのユーザーは、ワークスペースのコンプライアンスをより簡単に確保できるようになります。特にドイツ市場でのコンプライアンスが強化され、セキュリティ上の利点が向上します。

# [デフォルトストレージ上のテーブルに対するDelta Sharingは、間もなくデフォルトで有効になります(ベータ版)](https://docs.databricks.com/aws/en/release-notes/whats-coming#delta-sharing-for-tables-on-default-storage-will-soon-be-enabled-by-default-beta)
**2025-09-02**
Delta Sharing プロバイダーは、デフォルトストレージに格納されたテーブルを、従来のコンピュートを使用するレシピエントを含め、Delta Sharing レシピエント (オープンまたはDatabricks) と共有できます。この機能は現在ベータ版であり、プロバイダーが手動でプレビューを有効にする必要があります。近日中に、すべてのユーザーに対してデフォルトで有効になる予定です。
<a href="https://docs.databricks.com/aws/ja/storage/default-storage#limitations">制限事項</a>を参照してください。

**ユーザーへのインパクト**

Delta Sharingを使用するDatabricksユーザーは、デフォルトストレージ上のテーブル共有がデフォルトで有効になるため、特に設定変更は必要ありませんが、デフォルトストレージの制限事項を確認しておく必要があります。具体的には、https://docs.databricks.com/aws/ja/storage/default-storage#limitations の制限事項に目を通しておくことをお勧めします。

# [ユーザーに代わって認証するAIエージェント: パブリックプレビュー](https://docs.databricks.com/aws/en/release-notes/product/2025/september#ai-agents-authorize-on-behalf-of-user-public-preview)
**2025-09-02**
<p>モデルサービングエンドポイントにデプロイされたAIエージェントは、ユーザーの代理での認可を使用できます。これにより、エージェントはクエリを実行するDatabricksユーザーとして動作し、セキュリティを強化し、機密データへのきめ細かいアクセスを実現します。</p>

**ユーザーへのインパクト**

Databricksの最新アップデートにより、モデルサービングエンドポイントにデプロイされたAIエージェントが、ユーザーに代わって認証を行う機能がパブリックプレビューで利用できるようになりました。これにより、AIエージェントはDatabricksユーザーの権限で動作し、ユーザーのアクセス権限に基づいてデータへのアクセスが制御されるため、セキュリティとアクセス制御が強化されます。これにより、機密データに対するより細かいアクセス制御が可能になります。

# [SQL ServerコネクタがSCDタイプ2をサポートします。](https://docs.databricks.com/aws/en/release-notes/product/2025/september#sql-server-connector-supports-scd-type-2)
**2025-09-01**
<p>Lakeflow ConnectのMicrosoft SQL ServerコネクタがSCDタイプ2をサポートするようになりました。履歴追跡または徐々に変化するディメンション(SCD)とも呼ばれるこの設定は、データの変化を時間の経過とともにどのように処理するかを決定します。履歴追跡がオフ(SCDタイプ1)の場合、古いレコードはソースで更新および削除されると上書きされます。履歴追跡がオン(SCDタイプ2)の場合、コネクタはこれらの変更の履歴を保持します。詳細は<a href="https://docs.databricks.com/aws/ja/ingestion/lakeflow-connect/scd">履歴追跡を有効にする(SCDタイプ2)</a>を参照してください。</p>

**ユーザーへのインパクト**

SQL ServerコネクタがSCDタイプ2をサポートするようになったため、Databricksユーザーはデータの変化を時間の経過とともに追跡できるようになりました。履歴追跡を有効にすることで、ソースでの更新や削除の履歴を保持できます。これにより、より正確なデータ分析が可能になります。詳細はドキュメントを参照してください。

# [アカウント SCIM 2.0 の更新情報](https://docs.databricks.com/aws/en/release-notes/product/2025/august#account-scim-20-updates)
**2025-08-29**
<p>安定性を高め、将来の成長をサポートするために、DatabricksはID管理のためのアカウントSCIM APIを以下のように更新しました:</p>
<ul>
<li>
<p><code>フィルタパラメータ付きGET filter=displayName eq 引用符なしの値</code>の呼び出しは、構文エラーを引き起こします。このエラーを防ぐには、値を引用符で囲んでください(例: <code>filter=displayName eq "引用符付きの値"</code>)。</p>
</li>
<li>
<p><code>GET /api/2.0/accounts/{account_id}/scim/v2/Groups</code>の呼び出しは、メンバを返さなくなりました。代わりに、<code>グループの詳細を取得</code>を繰り返し処理して、メンバー情報を取得してください。詳細は<a href="https://docs.databricks.com/api/account/accountgroups/get">グループの詳細の取得</a>を参照してください。</p>
</li>
<li>
<p><code>PATCH /api/2.0/accounts/{account_id}/scim/v2/Groups/{id}</code>の呼び出しは、200レスポンスではなく、204レスポンスを返すようになりました。</p>
</li>
</ul>
<p>これらの変更は、新しいアカウントに適用され、既存のアカウントにも適用される予定です。現在の統合は、混乱なく引き続き機能します。</p>

**ユーザーへのインパクト**

DatabricksアカウントSCIM 2.0の更新により、以下の影響があります:

1. `GET`リクエストでフィルタを使用する際、`displayName`の値を引用符で囲まなければ構文エラーが発生します。例えば、`filter=displayName eq "値"`のように修正する必要があります。

2. グループメンバー情報を取得する際、`GET /api/2.0/accounts/{account_id}/scim/v2/Groups`はメンバを返しません。代わりに、`グループの詳細を取得`APIを繰り返し呼び出してメンバー情報を取得する必要があります。

3. `PATCH /api/2.0/accounts/{account_id}/scim/v2/Groups/{id}`のレスポンスコードが200から204に変更になりました。

これらの変更は新しいアカウントに適用され、順次既存のアカウントにも適用されますが、現在の統合は変更なく引き続き機能します。ただし、将来的な問題を避けるために、上記の変更点に対応することをお勧めします。

# [コンピュートセクションのOLTP Databaseタブの名称がLakebase Postgresに変更されました。](https://docs.databricks.com/aws/en/release-notes/product/2025/august#oltp-database-tab-renamed-to-lakebase-postgres-in-compute-section)
**2025-08-29**
ワークスペースのComputeセクションにあるOLTP Databaseタブの名前がLakebase Postgresに変更されました。このタブを使用して、Lakebaseデータベースインスタンスを作成および管理します。

詳細については、<a href="https://docs.databricks.com/aws/ja/oltp/create">データベースインスタンスの作成と管理</a>を参照してください。

**ユーザーへのインパクト**

Databricksのコンピュートセクションにある「OLTP Database」タブの名称が「Lakebase Postgres」に変更されました。これにより、ユーザーはLakebaseデータベースインスタンスの作成と管理をこのタブで行うことができます。ユーザーは、変更されたタブを使用して、引き続きデータベースインスタンスを管理できます。詳細はDatabricksのドキュメントを参照してください。

# [Lakebaseの同期テーブルは、スナップショットモードでのApache Icebergおよび外部テーブルの同期をサポートしています。](https://docs.databricks.com/aws/en/release-notes/product/2025/august#lakebase-synced-tables-supports-syncing-apache-iceberg-and-foreign-tables-in-snapshot-mode)
**2025-08-28**
<p>Icebergテーブルまたは外部テーブルからSnapshot同期モードで同期テーブルを作成できるようになりました。</p>
<p>詳細は<a href="https://docs.databricks.com/aws/ja/oltp/sync-data/sync-table#supported-source-tables">サポートされているソーステーブル</a>をご覧ください。</p>

**ユーザーへのインパクト**

このリリースノートは、DatabricksのLakebase同期テーブル機能に関する更新情報を提供しています。Apache Icebergテーブルまたは外部テーブルからスナップショット同期モードで同期テーブルを作成できるようになったことを示しています。

Databricksユーザーに対する影響は以下の通りです:

1. **新しい同期オプション**:Icebergテーブルや外部テーブルをソースとして、スナップショットモードで同期テーブルを作成できます。これにより、より柔軟なデータ同期が可能になります。
2. **サポートされるソーステーブルの拡張**:Icebergテーブルや外部テーブルが同期テーブルのソースとしてサポートされるようになりました。詳細はDatabricksのドキュメントを参照してください。
3. **データ統合の強化**:この更新により、異なるデータソースからのデータをより簡単に同期できるようになり、データ統合が強化されます。

この機能強化により、Databricksユーザーはより多様なデータソースを扱うことができ、データの同期と統合がより効率的になります。

# [外部MCPサーバーはベータ版です。](https://docs.databricks.com/aws/en/release-notes/product/2025/august#external-mcp-servers-are-in-beta)
**2025-08-28**
<p>ユーザーは、Databricksを外部のModel Context Protocol(MCP)サーバーに接続できるようになりました。これにより、エージェントはDatabricks外部のツールにアクセスできるようになります。</p>
<p>詳細は<a href="https://docs.databricks.com/aws/ja/generative-ai/mcp">Databricks上のModel Context Protocol (MCP)</a>をご覧ください。</p>

**ユーザーへのインパクト**

このリリースノートは、Databricksユーザーが外部のModel Context Protocol(MCP)サーバーに接続できるようになったことを示しています。これにより、エージェントがDatabricks外部のツールにアクセスできるようになります。ユーザーは、Databricks上のMCPのドキュメントを参照することで、その機能の詳細を理解し、実装方法を学ぶことができます。つまり、Databricksの機能が拡張され、より多くの外部ツールと連携できるようになったということです。

# [デフォルトの倉庫設定がベータ版で利用できるようになりました。](https://docs.databricks.com/aws/en/sql/release-notes/2025#default-warehouse-setting-is-now-available-in-beta)
**2025-08-28**
SQL エディター、AI/BI ダッシュボード、AI/BI Genie、アラート、カタログエクスプローラー全体のコンピュートセレクターで自動的に選択されるデフォルトのウェアハウスを設定します。個々のユーザーは、クエリを実行する前に異なるウェアハウスを選択することで、この設定を上書きできます。また、ユーザーは、セッション全体に適用されるユーザー レベルのデフォルトのウェアハウスを定義することもできます。「<a href="https://docs.databricks.com/aws/ja/admin/sql#default-warehouse">ワークスペースのデフォルトの SQL ウェアハウスの設定</a>」および「<a href="https://docs.databricks.com/aws/ja/compute/sql-warehouse/create#user-default">ユーザー レベルのデフォルト ウェアハウスの設定</a>」を参照してください。

**ユーザーへのインパクト**

デフォルトの倉庫設定がベータ版で利用できるようになりました。これにより、SQLエディターやダッシュボードなどの様々な機能で自動的に選択されるデフォルトのウェアハウスを設定できます。個々のユーザーはクエリ実行時に異なるウェアハウスを選択することでこの設定を上書きでき、またユーザー自身でセッション全体に適用されるデフォルトのウェアハウスを設定することもできます。詳細はドキュメント「ワークスペースのデフォルトの SQL ウェアハウスの設定」および「ユーザー レベルのデフォルト ウェアハウスの設定」を参照してください。

# [サーバーレスベース環境(パブリックプレビュー)の管理が可能になりました。](https://docs.databricks.com/aws/en/release-notes/product/2025/august#admins-can-now-manage-a-workspaces-serverless-base-environments-public-preview)
**2025-08-28**
<p>ベース環境とは、サーバーレスノートブック向けのカスタム環境仕様であり、サーバーレス環境のバージョンと一連の依存関係を定義するものです。</p>
<p>ワークスペースの管理者は、ワークスペースで利用可能なベース環境を作成・管理できるようになりました。また、すべての新しいサーバーレスノートブックのデフォルトのベース環境を設定することもできます。これにより、ワークスペースのユーザーは、一貫性のあるキャッシュされた環境で迅速に作業を開始できます。</p>
<p>詳細は<a href="https://docs.databricks.com/aws/ja/admin/workspace-settings/base-environment">サーバーレスベース環境の管理</a>をご覧ください。</p>

**ユーザーへのインパクト**

ワークスペース管理者は、サーバーレスノートブック向けのカスタム環境仕様である「ベース環境」を作成・管理できるようになりました。また、デフォルトのベース環境を設定することで、ユーザーは一貫性のある環境で迅速に作業を開始できます。これにより、ユーザーは依存関係の一貫性を保ちつつ、効率的に作業を進めることが可能になります。詳細はドキュメント「サーバーレスベース環境の管理」を参照してください。

# [Lakebaseの同期テーブルは、スナップショットモードでIcebergおよび外部テーブルを同期することをサポートしています。](https://docs.databricks.com/aws/en/release-notes/product/2025/august#lakebase-synced-tables-supports-syncing-iceberg-and-foreign-tables-in-snapshot-mode)
**2025-08-28**
<p>スナップショット同期モードで、Icebergテーブルまたは外部テーブルから同期テーブルを作成できるようになりました。</p>
<p>詳細は<a href="https://docs.databricks.com/aws/ja/oltp/sync-data/sync-table#supported-source-tables">サポートされているソーステーブル</a>をご参照ください。</p>

**ユーザーへのインパクト**

Lakebaseの同期テーブルが、スナップショットモードでIcebergおよび外部テーブルを同期することをサポートするようになりました。これにより、DatabricksユーザーはIcebergテーブルまたは外部テーブルから同期テーブルを作成できるようになります。つまり、ユーザーはこれらのテーブルからデータを簡単に同期し、Lakebase上でデータを統合・管理できるようになります。詳細はDatabricksのドキュメントで確認できます。

# [レガシー公開モードからLakeflow宣言型パイプラインへの移行がGAになりました。](https://docs.databricks.com/aws/en/release-notes/product/2025/august#migrate-lakeflow-declarative-pipelines-from-legacy-publishing-mode-is-now-ga)
**2025-08-28**
Lakeflow宣言的パイプラインには、単一のカタログとスキーマへのパブリッシュのみを許可する従来のパブリッシュモードがあります。デフォルトのパブリッシュモードでは、複数のカタログおよびスキーマへのパブリッシュが有効になります。レガシーパブリッシュモードからデフォルトのパブリッシュモードへの移行が一般的に利用できるようになりました。
詳細については、<a href="https://docs.databricks.com/aws/ja/dlt/migrate-to-dpm">パイプラインでデフォルトのパブリッシュモードを有効にする</a>を参照してください。

**ユーザーへのインパクト**

Databricksユーザーは、レガシー公開モードからLakeflow宣言型パイプライン(デフォルトの公開モード)に移行できるようになりました。デフォルトの公開モードでは、複数のカタログおよびスキーマへのパブリッシュが可能になります。ユーザーは、パイプラインでデフォルトのパブリッシュモードを有効にすることで、移行プロセスを開始できます。詳細については、提供されたドキュメントリンクを参照してください。

# [ダッシュボードの外部埋め込みパブリックプレビューと新しいカスタム計算機能](https://docs.databricks.com/aws/en/ai-bi/release-notes/2025#dashboard-external-embedding-public-preview-and-new-custom-calculations-functions)
**2025-08-28**
<ul>
<li><strong>カスタム計算機能:</strong> <code>ln</code>、<code>log</code>、<code>log10</code>、および<code>round</code> 関数がサポート対象に追加されました。詳細は<a href="https://docs.databricks.com/aws/ja/dashboards/datasets/custom-calculations">カスタム計算とは</a>を参照してください。</li>
<li><strong>カスタム計算の上限アップ:</strong> ダッシュボードごとに最大 200 のカスタム計算を定義できるようになりました。</li>
<li><strong><a href="https://docs.databricks.com/aws/ja/release-notes/release-types">パブリックプレビュー</a>の外部ユーザー向け埋め込み機能:</strong> 外部ユーザーのためのダッシュボードの埋め込みが、パブリックプレビューで利用できるようになりました。詳細は<a href="https://docs.databricks.com/aws/ja/dashboards/embedding#external-embed">外部ユーザーのための埋め込み</a>を参照してください。</li>
<li><strong>列名にアポストロフィを含む複数 y 軸チャート:</strong> 列名にアポストロフィが含まれる場合に、ラベルが正しく表示されるようになりました。</li>
<li><strong>円グラフのカスタムツールチップ:</strong> 円グラフでカスタムツールチップがサポートされるようになりました。</li>
</ul>

**ユーザーへのインパクト**

Databricksの最新リリースにより、ダッシュボード機能が強化され、以下の変更がDatabricksユーザーに影響を与えます。

1. **カスタム計算の強化**: `ln`、`log`、`log10`、および`round`関数がカスタム計算で利用可能になり、ダッシュボードごとのカスタム計算の上限が200に引き上げられました。これにより、ユーザーはより複雑なデータ操作と分析が可能になります。

2. **ダッシュボードの外部埋め込み**: 外部ユーザー向けのダッシュボード埋め込み機能がパブリックプレビューで利用可能になりました。これにより、Databricks外部のユーザーとダッシュボードを共有するのが容易になります。

3. **チャート表示の改善**: 列名にアポストロフィが含まれる場合の複数y軸チャートのラベル表示が改善され、正しく表示されるようになりました。また、円グラフでカスタムツールチップがサポートされ、ユーザーがより詳細な情報を表示できるようになりました。

これらの更新により、Databricksユーザーはより柔軟かつ強力なダッシュボードを作成し、外部とのコラボレーションを強化できます。

# [フォローアップの質問と修正(Genie)](https://docs.databricks.com/aws/en/ai-bi/release-notes/2025#genie-follow-up-questions-and-fixes)
**2025-08-28**
<ul>
<li><strong>フォローアップの質問:</strong> クエリに以前の結果からのコンテキストを含めることができるようになり、Genieがフォローアップの質問に答えられるようになりました。</li>
<li><strong>大きなスペースでのクローン作成の問題を修正:</strong> 多数の命令を含むスペースを正常にクローンできるようになりました。</li>
<li><strong>WindowsでのCSVダウンロードの問題を修正:</strong> ダウンロードしたクエリ結果ファイルがWindowsで確実に開くようになりました。</li>
</ul>

**ユーザーへのインパクト**

Databricksの最新アップデートにより、Genieにおいて以下の改善と修正が行われました:

1. **フォローアップの質問への対応**: Genieが、前の質問の結果を踏まえたフォローアップの質問に回答できるようになりました。これにより、より連続性のある対話が可能になります。

2. **大きなスペースのクローン作成問題の修正**: 多数の命令を含む大きなスペースをクローンする際に発生していた問題が解決され、正常にクローンできるようになりました。

3. **WindowsでのCSVダウンロード問題の修正**: ダウンロードしたクエリ結果のCSVファイルがWindowsで正しく開けない問題が修正され、Windows環境での互換性が向上しました。

これらの変更により、DatabricksユーザーはよりスムーズにGenieを利用でき、特に大きなプロジェクトやWindows環境での作業が改善されます。

# [新しいセル実行ミニマップでノートブックの実行状況を追跡し、ナビゲートします。](https://docs.databricks.com/aws/en/release-notes/product/2025/august#track-and-navigate-notebook-runs-with-the-new-cell-execution-minimap)
**2025-08-28**
ノートブックの進行状況を一目で把握するには、セル実行ミニマップを使用します。ミニマップは右側の余白に表示され、各セルの実行状態 (スキップ、キュー登録済み、実行中、成功、またはエラー) を示します。カーソルを合わせるとセル詳細が表示され、クリックすると直接セルにジャンプします。

セル実行ミニマップの使用方法については、「<a href="https://docs.databricks.com/aws/ja/notebooks/notebook-editor">Databricks ノートブックエディタとファイルエディタの操作</a>」を参照してください。

**ユーザーへのインパクト**

Databricksノートブックにセル実行ミニマップが新たに追加され、ノートブックの実行状況を視覚的に追跡し、簡単にナビゲートできるようになりました。主な利点は以下の通りです:

1. ノートブックの進行状況を一目で確認できます。
2. セルの実行状態(スキップ、キュー登録済み、実行中、成功、またはエラー)が表示されます。
3. カーソルを合わせるとセルの詳細が表示され、クリックすると直接セルにジャンプできます。

これにより、ノートブックの実行状況をより効率的に監視および管理できるようになります。詳細な使用方法については、Databricksのドキュメントを参照してください。

# [ガバンドタグはパブリックプレビューです。](https://docs.databricks.com/aws/en/release-notes/product/2025/august#governed-tags-are-public-preview)
**2025-08-26**
ガバンドタグを作成し、カタログ、スキーマ、テーブルなどのデータ資産間で一貫したタグ付けを強制できるようになりました。 ガバンドタグを使用すると、管理者は許可されたキーと値を定義し、どのユーザーとグループがそれらをオブジェクトに割り当てることができるかを制御できます。 これにより、データ分類、コスト追跡、アクセス制御、自動化のためのメタデータが標準化されます。

「<a href="https://docs.databricks.com/aws/ja/admin/governed-tags">ガバンドタグ</a>」を参照してください。

**ユーザーへのインパクト**

ガバンドタグがパブリックプレビューで利用可能になりました。これにより、管理者はデータ資産全体で一貫したタグ付けを強制できます。主な利点は以下の通りです:

* データ分類、コスト追跡、アクセス制御、自動化のためのメタデータが標準化されます。
* 管理者は許可されたキーと値を定義し、それらをオブジェクトに割り当てることができるユーザーとグループを制御できます。

詳細については、「ガバンドタグ」のドキュメントを参照してください。

# [選択的かつ原子的にデータを置き換えるには、INSERT REPLACE USING と INSERT REPLACE ON を使用します (GA)](https://docs.databricks.com/aws/en/release-notes/product/2025/august#selectively-and-atomically-replace-data-with-insert-replace-using-and-insert-replace-on-ga)
**2025-08-26**
<p><code>INSERT REPLACE USING</code> と <code>INSERT REPLACE ON</code> が Databricks Runtime 17.2 で一般的に利用できるようになりました。どちらの SQL コマンドも、クエリの結果でテーブルの一部を置き換えます。</p>
<p><code>INSERT REPLACE USING</code> は、<code>USING</code> 列が等価の下で等しい場合に行を置き換えます。 <code>INSERT REPLACE ON</code> は、ユーザ定義の条件に一致した場合に行を置き換えます。</p>
<p>SQL 言語リファレンスの <a href="https://docs.databricks.com/aws/ja/sql/language-manual/sql-ref-syntax-dml-insert-into">INSERT</a> および <a href="https://docs.databricks.com/aws/ja/delta/selective-overwrite">Delta Lake を使用したデータの選択的オーバーライト</a>を参照してください。</p>

**ユーザーへのインパクト**

Databricks Runtime 17.2以降、`INSERT REPLACE USING`と`INSERT REPLACE ON`コマンドが一般利用可能になりました。これらのコマンドを使用すると、クエリ結果に基づいてテーブルの特定部分を原子的に置き換えることができます。`INSERT REPLACE USING`は`USING`句で指定された列の値が一致する行を置き換え、`INSERT REPLACE ON`はユーザー定義の条件に基づいて行を置き換えます。これにより、Databricksユーザーは柔軟かつ効率的にデータを更新できるようになります。

# [Microsoft SQL Server コネクタが一般提供開始 (GA) されました。](https://docs.databricks.com/aws/en/release-notes/product/2025/august#microsoft-sql-server-connector-ga)
**2025-08-26**
<p>Lakeflow ConnectのMicrosoft SQL Serverインジェストコネクタが一般提供開始されました。詳細については、<a href="https://docs.databricks.com/aws/ja/ingestion/lakeflow-connect/sql-server-source-setup">Microsoft SQL ServerをDatabricksに取り込むための設定</a>を参照してください。</p>

**ユーザーへのインパクト**

Microsoft SQL Server コネクタが一般提供開始されたため、DatabricksユーザーはMicrosoft SQL ServerからDatabricksへのデータ取り込みをより簡単に設定できるようになりました。これにより、SQL ServerのデータをDatabricksで分析・処理するワークフローをより効率的に構築できます。詳細な設定方法については、Databricksのドキュメントを参照してください。

# [OAuthトークンフェデレーションがGAになりました](https://docs.databricks.com/aws/en/release-notes/product/2025/august#oauth-token-federation-is-now-ga)
**2025-08-26**
OAuthトークンフェデレーションが一般提供開始されました。トークンフェデレーションを使用すると、IDプロバイダー (IdP) からのトークンを使用して、Databricks API に安全にアクセスできるようになります。Databricks UI、またはDatabricks CLI または REST API を使用して、トークン フェデレーション ポリシーを直接構成できます。
「フェデレーション ポリシーの構成」を参照してください。

**ユーザーへのインパクト**

OAuthトークンフェデレーションが一般提供開始されました。これにより、IDプロバイダーからのトークンを使用してDatabricks APIに安全にアクセスできます。ユーザーはDatabricks UIまたはCLI/REST APIでトークンフェデレーションポリシーを直接構成できます。

# [新しいテーブルプロパティによるDeltaテーブルの圧縮制御](https://docs.databricks.com/aws/en/release-notes/product/2025/august#new-table-property-to-control-delta-table-compression)
**2025-08-26**
<p>これで<code>delta.parquet.compression.codec</code>テーブルプロパティを使用してDeltaテーブルの圧縮コーデックを明示的に設定できるようになりました。このプロパティを使用すると、テーブルへの今後のすべての書き込みで、選択したコーデックが使用されます。<a href="https://docs.databricks.com/aws/ja/delta/table-properties">Deltaテーブルプロパティのリファレンス</a>をご覧ください。</p>

**ユーザーへのインパクト**

Deltaテーブルの圧縮コーデックを`delta.parquet.compression.codec`テーブルプロパティで制御できるようになりました。これにより、テーブルへの今後の書き込みで使用する圧縮コーデックを指定できます。詳細は[Deltaテーブルプロパティのリファレンス](https://docs.databricks.com/aws/ja/delta/table-properties)を参照してください。

# [新しいINSERT REPLACEコマンド(一般提供)](https://docs.databricks.com/aws/en/release-notes/product/2025/august#new-insert-replace-commands-ga)
**2025-08-26**
<p><code>INSERT REPLACE USING</code>と<code>INSERT REPLACE ON</code>がDatabricks Runtime 17.2で一般的に利用できるようになりました。詳細については、<a href="https://docs.databricks.com/aws/ja/release-notes/runtime/17.2">Databricks Runtime 17.2 リリースノート</a>を参照してください。</p>

**ユーザーへのインパクト**

Databricks Runtime 17.2以降、INSERT REPLACEコマンドが一般提供されるようになりました。これにより、`INSERT REPLACE USING`および`INSERT REPLACE ON`構文を使用してデータを簡単に置換できるようになります。既存のデータ置換処理を簡素化し、Delta Lakeテーブルのデータ管理がより効率化されます。詳細はDatabricks Runtime 17.2リリースノートをご参照ください。

# [Databricks Runtime 17.2 および Databricks Runtime 17.2 ML はベータ版です](https://docs.databricks.com/aws/en/release-notes/product/2025/august#databricks-runtime-172-and-databricks-runtime-172-ml-are-in-beta)
**2025-08-26**
<p>Databricks Runtime 17.2 および Databricks Runtime 17.2 ML がベータ版として利用できるようになりました。これらのリリースには、SQLおよびAPIの強化、新しいマイグレーションオプション、プラットフォーム全体での信頼性とパフォーマンスの向上が含まれています。</p>
<p><a href="https://docs.databricks.com/aws/ja/release-notes/runtime/17.2">Databricks Runtime 17.2 (ベータ版)</a> および <a href="https://docs.databricks.com/aws/ja/release-notes/runtime/17.2ml">Databricks Runtime 17.2 for Machine Learning (ベータ版)</a>を参照してください。</p>

**ユーザーへのインパクト**

Databricks Runtime 17.2 および Databricks Runtime 17.2 ML のベータ版がリリースされました。このリリースには、SQL と API の強化、新しいマイグレーションオプション、およびプラットフォーム全体での信頼性とパフォーマンスの向上が含まれています。ユーザーは、ドキュメントを参照して詳細なリリースノートを確認できます。ただし、ベータ版であるため、本番環境での使用は推奨されない可能性があります。

5
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
5
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?