はじめに
Databricksが最近、ますます注目を集めています。Claude 4のサポート開始に加えて、Mosaic AI Agent Framework、MLflow、Unity Catalogとの統合の強化など、AI開発基盤としての進化が目覚ましいです。
今回は、公式ドキュメントのサンプルコードを参考に、Claude 4 Sonnetを使ったPythonコーディング支援マルチエージェントシステムを試しに構築しました。
アプローチ
サンプルコードをそのまま動かすだけでなく、Claude 4 Sonnet単体にシステム構築を指示してみました。以下のようなプロンプトを一部使用してみました。
Databricks環境で、LangGraph、MLflow、Mosaic AI Agent Frameworkを統合した
Pythonコーディング支援マルチエージェントシステムを構築してください。
- LLMモデルはdatabricks-claude-sonnet-4を使用してください。
- 本番環境での使用を想定した、エンタープライズグレードの実装を提供してください。
- 最大限の機能性と相互作用を含む、完全に機能する実装を作成してください。
- 基本的な実装を超えて、段階的に開発からデプロイまで対応できる実用的で保守性の高いソリューションを
提供してください。
システム案
エージェント構成
- Supervisor Agent: リクエストのルーティング
- Code Generator Agent: Pythonコード生成
- Code Reviewer Agent: コード品質レビュー
- Debugger Agent: バグの特定と修正
- Documentation Agent: ドキュメント作成
- Testing Agent: テストケース生成
使用技術
- LLM: databricks-claude-sonnet-4
- オーケストレーション: LangGraph
- モデル管理: MLflow
- デプロイ: Mosaic AI Agent Framework
実装
さすがに、一発で完璧なコードは生成されませんでしたが、以下のような課題を段階的に解決していきました (継続改良中)。
- ライブラリバージョンの問題: 古いバージョンのライブラリを使用したコードが生成され、最新のAPIとの不整合が発生
- 再帰制限エラー: LangGraphの再帰制限に達する問題で、エージェント間のルーティングロジックの見直しが必要
- 長いコンテキストによるタイムアウト: 複雑な処理で応答時間が長くなり、タイムアウト設定の調整が必要
テスト
基本的な機能テストを実行し、エージェントが適切に動作することを確認しました:
- コード生成(バイナリサーチ実装など)
- コードレビュー(改善提案)
- デバッグ(エラー修正)
- テスト生成(単体テスト作成)
- ドキュメント生成(docstring作成)
MLflowでの管理
MLflowでモデルの登録・管理を行い、エージェントの実行トレースも確認できました。
デプロイメント
Unity Catalogにモデルを登録し、Model Servingエンドポイントとしてデプロイしました。
デプロイ後はReview App/Playgroundで動作確認を行い、マルチターン会話も正常に動作することを確認しました。
感想
Claude 4 Sonnetは複雑な指示も理解して実装してくれますが、一度で完璧なコードを生成するのは難しく、明確な指示や対話的な修正プロセスが重要でした。この点は従来のLLMと大きく変わらない印象です。ただし、エラーメッセージを提示した際の問題特定や修正提案の精度は高く感じられました。今回はまだ、お試し程度ではありますが、マルチエージェントシステムを構築できたのは良い体験でした。
今後の展開
次のステップとしては、デプロイしたエージェントをDatabricks Appsで利用してみたいと思います。エージェントを手軽にアプリケーションに組み込むこともできて便利ですね。DatabricksとClaude 4については、さらに使いこなせるように理解を深めたいです。
参考リンク


