Introducing the Databricks AI Security Framework (DASF) | Databricks Blogの翻訳です。
本書は抄訳であり内容の正確性を保証するものではありません。正確な内容に関しては原文を参照ください。
AIセキュリティを管理するための実践的なフレームワーク
Databricks AI Security Framework (DASF) version 1.0ホワイトペーパーのリリースを発表できることを嬉しく思っています!このフレームワークは、ビジネス、IT、データ、AI、セキュリティグループのチームワークを改善する目的で設計されています。現実世界の攻撃パターンをベースとしてAIセキュリティリスクの知識ベースのカタログを作成することで、AIとMLのコンセプトをシンプルにし、AIセキュリティに対する綿密なアプローチを提供し、即座の適用のための実践的なアドバイスを提供します。
機械学習(ML)と生成AI(GenAI)は、イノベーション、競争優位性、従業員の生産性を強化することで、未来の働き方を変革しています。しかし、企業はデータ漏洩や規制への非順守のような潜在的なセキュリティ、プライバシーリスクの管理を行いつつも、人工知能(AI)技術の機会を活用するという二重の課題に苦戦しています。
この記事では、DASFの概要を示し、企業のAIの取り組みを保護するためにどのように活用するのか、外部のモーメンタムのアップデートを共有し、皆様の企業におけるAI導入に対する堅牢なガイドをご提供します。
Databricks AIセキュリティフレームワークの基礎の構築
AIはすべての業界にインパクトを与え、働き方を変革しています。かつてないほどに、リーダーは企業を変革するためにデータとAIを活用したいと考えています。皆様の企業のAIのゴールにおいて、信頼を確立するためにはAIのセキュリティとガバナンスが重要となります。Gartnerによると、AIの信頼、リスク、セキュリティ管理はビジネスや技術の意意思決定における重要な要素になるトップ1の戦略になるとのことであり、2026年までには、AIの透明性、信頼性、セキュリティを実現する企業のAIモデルが、導入やビジネスゴール、ユーザーの受容において50%の増加を達成すると言われています。
今年初頭、DatabricksはMosaicMLの買収を発表し、レスポンシブルAIに対するコミットメントに関して共有しました。過去数ヶ月間では、新たなパートナーシップを通じて、AIにおける業界リーダーとしての更なるコミットメントとモーメンタムを継続しています。これらの投資を補うものとして、Databricksセキュリティチームでは、企業がリスクに注意する方法で自身のAIジャーニーを成功裡に運ぶための方法を教育するためのAI Security workshops for CISOsをホストしています。我々は、お客様のセキュリティ、ガバナンスチームにおいて、AIとは何か、どのように動作するのか、これらの技術がロールアウトされるとどのようなセキュリティリスクが引き起こされるのかといったことを明らかにするために、信頼できるマテリアルを探し出すことに苦戦していることを知りました。
ビジネス、IT、データ、AI、セキュリティチームが以下の原則のもとで、AIのデプロイメントで協働できる助けになるように、我々はこれらの学びをDASFフレームワークにまとめ上げました:
- AIとMLを明らかにする: DASFはAIシステムを12のコンポーネントにブレークダウンしており、どのようなタイプのAIモデルが存在するのか、それらがどのように連携して動作するのかを明らかにしています。これは、関連するAIシステム、プロセス、ペルソナに対する共通の用語を定義することで、チームの連携を助けます。
- AIを保護するための綿密な防御策を提供する: セキュリティリーダーとの会話において、AIセキュリティとはサイバーセキュリティの問題なのか、攻撃的機械学習の問題なのか、それ以外の全く新しいものなのかに関して明らかにする必要性を認識しました。DASFでは、特定のAIユースケースやデプロイメントモデルをベースとして、すべてのAIシステムの3つのステージにおける55のセキュリティリスクを理解するためのフレームワークを提供します。また、このリスクをOWASP Top 10 for LLMsやNIST AML Taxonomyのような一般的なAIセキュリティフレームワークにマッピングしています。
- 実践的な推奨事項を提供する: 多くの既存のフレームワークは、AIに関連するリスクの概要を説明するには優れた仕事をしていますが、それらを軽減するために必要なコントロールを明確に説明していません。DASFでは、使用するデータやAIプラットフォームに適用可能な53のコントロールを推奨しています。Databricksを利用しているのであれば、さらにもう一歩進めることができます: それぞれの対策コントロールを実装するための特定の手順を提供するために(クラウドごとの)Databricksドキュメントへのリンクを提供しています!
Databricks AIセキュリティフレームワークを使い始める
DASFは、使用するデータやAIプラットフォームに関係なく活用できるように設計されており、実装を検討すべき明確なコントロールのセットと、あなたの企業におけるエンドツーエンドのAIデプロイメントの要件のプロファイルを持ち帰ることができます。DASFを使い始めるには、以下の図で示しているようなアプローチに沿うことをお勧めします:
ステップ1 - AIビジネスユースケースの特定: AIユースエースが実装済みなのか、計画フェーズなのかに応じてステークホルダーと連携します。ご自身のもっとも一般的でインパクトのあるAI、MLユースケースの結果をスピードアップするために、目的ベースで構築されたガイドであるDatabricks Solution Acceleratorsを活用することをお勧めします。お使いのデータ&AIプラットフォームで必要とされるベースラインを特定するために、どのようなデータセットを使用するのか、どのようなコンプライアンス要件が適用されるのか、これらのAIシステムにどのアプリケーションが影響するのかをレビューします。
ステップ2 - AIデプロイメントモデルの決定: 予測MLモデル、RAG-LLM、ファインチューンLLM、事前学習LLM、基盤モデル、外部モデルのように適切なデプロイメントモデルを選択します。それぞれのデプロイメントには、12のAIシステムコンポーネント、皆様の組織、お使いのデータ&AIプラットフォーム、関連するパートナーに対する共有責任範囲が異なります。
ステップ3 - 最も適切なリスクを選択: 文書化されている55のセキュリティリスクのリストから、あなたの組織で実装しているユースケースやデプロイメントモデルをベースとして、企業に最も適切なものを特定します。多くのユースケースでは、55のリスクの小規模なサブセットのみを対応する必要があります。
ステップ4 - コントロールの選択、実装: あなたの組織のリスクに対する方針とアラインするコントロールを選択します。これらのコントロールは、通常すべてのデータ&AIプラットフォームと互換するように汎用的に定義されています。また、我々のフレームワークでは、Databricksデータインテリジェンスプラットフォーム固有のDatabricks実装のガイドをクラウドごとに設えて提供しています。あなたの組織のポリシーと一緒にこれらのコントロールを活用することで、適切な保証を講じることができます。
もし、もうお腹いっぱいということであれば、インタラクティブな体験を提供するAI Security workshopsをホスティングしますので、そちらにご参加ください。
同業者、パートナー、顧客を通じたAIセキュリティの醸成
セキュリティ業界では、集合的な安全性、セキュリティ、成功を確実にするためにピアのコラボレーションが不可避です。DASFのようなドキュメントは、Guidelines for Secure AI System Development、NIST AI Risk Management Framework、Multilayer Framework for Good Cybersecurity Practices for AIのような先人の標準、フレームワーク、サードパーティツールなしには刊行することはできませんでした。DASFではさらに多くの文献を参考にしており、リソースセクションで確認することができます。
DatabricksにおけるAI、ML、セキュリティエキスパートによる数えきれないほどの内部レビューを実施しましたが、HITRUST、Carnegie Mellon University、Capital One、Protect AI、Barracuda(その他の企業も以下で引用しています!)を含むAIセキュリティ業界とのリーダーとも打ち合わせを行いました。我々のピアにとってDASFが最も実践的なものにするにはどうしたらいいのかに関して、時間、洞察、フィードバックを提供してくれたことに感謝の意を表します。レビュアーの完全なリストはDASFの謝辞のセクションで確認できます。
強固なAIセキュリティ基盤の拡大への第一歩 - Databricks AIセキュリティフレームワークをダウンロードし、我々のチームにエンゲージください
Databricks AIセキュリティフレームワークホワイトペーパーはDatabricks Security and Trust Centerでダウンロードできます。精度を保証するために様々な労力を費やしており、我々のチームではフィードバックをお待ちしています。フィードバックや質問がある場合には、dasf@databricks.comまでコンタクトください。ここでは、まもなく提供されるAI Security workshopのや皆様の企業向けのワークショップの情報をリクエストすることができます。AI、MLセキュリティの詳細なリソースに関しては、新たなAI Security pageをご覧ください。