5
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

AI時代の「守り方」:AIと共に歩む予防型セキュリティ戦略

Posted at

執筆の一部にClaudeを使用しています。
webアプリケーションのフロントエンドを中心に開発しており、セキュリティの専門家ではありません。

結論

AI時代のセキュリティは、従来の多層防御に加え、AIによる予測・分析能力を組み合わせた「攻撃者より先回りする防御」 への転換が重要です。

重要なポイントは3つです:

  1. AIは分析と予測に特化させ、実際のブロックは従来の確実な技術で行う
  2. 可視化により人間の判断を支援し、適切なリソース配分を実現する
  3. 継続的な改善サイクルにより、新たな脅威への適応力を維持する

この記事では、AWS Summit 2025の複数セッションから得られた知見を基に、AI時代におけるセキュリティ戦略を解説します。

AIによるセキュリティ事情の変化

攻撃者の速度と手数の向上

生成AIの登場により、攻撃者の能力は飛躍的に向上しました。従来は熟練したハッカーしかできなかった高度な攻撃が、プロンプト一つで短時間に実行可能になっています。この速度に「検知してから対応」という従来のアプローチでは、もはや追いつけません。

AP-09セッション「侵入経路予測でプロアクティブなセキュリティ」では下記が示されました。

  • 管理されていないIT資産が74%のセキュリティインシデントの原因
  • ランサムウェア被害が全体の5割を占める
  • 企業規模を問わず均等に狙われる時代に突入

シャドーAI問題

さらに深刻なのが「シャドーAI」の問題です。AP-15セッション「AIファースト時代のクラウドセキュリティ」によると、50%以上の組織で、IT部門が把握していないAIツールが使用されており、機密情報の流出リスクが日常的に存在しています。

個人的にChatGPTなどのAIツールを使用し、知らずに機密情報をコピー&ペーストで送信してしまうなどは際たる例です。もともとGitHub Copilotでも起きていたとは思いますが、最近だとCLIツールも出てきてファイルを勝手に読み込むため、制御がより必要になってきています。

AI特有の新たな攻撃手法

従来の脅威に加えて、AI時代特有の攻撃手法も登場しています:

  • プロンプトインジェクション:巧妙な入力によりAIに意図しない応答をさせる攻撃
  • メモリーポイズニング:AIエージェントの記憶・学習内容を意図的に汚染
  • モデル抽出攻撃:機密性の高いAIモデルの複製や内部情報の抽出

これらの脅威は、従来のルールベースの対策だけでは防げません。文脈理解と意味論的な判断が必要となるため、AIを活用した防御が不可欠となっています。

セキュリティを担保するための新旧技術の組み合わせ

従来の多層防御

複数のセッションで強調されていましたが従来のセキュリティ層が不要になるわけではないです。AWS-21セッション「AWSによる生成AIのセキュリティアプローチ」では、以下の従来層の重要性が改めて強調されました:

基盤となる従来の防御層

  • ネットワーク層:ファイアウォール、セキュリティグループによる通信制御
  • アプリケーション層:WAF(Web Application Firewall)、認証・認可システム
  • データ層:暗号化、アクセス制御、権限管理

AI時代の追加防御層

これらの基盤の上に、AI時代特有の脅威に対応する新たな層が追加されます:

  • プロンプト層:入力内容のサニタイゼーション(無害化処理)
  • モデル層:AIモデル自体の保護と動作監視
  • 出力層:生成されたコンテンツのフィルタリングと検証

重要なのは、これらの層が独立して機能するのではなく、相互に連携して包括的な防御を実現することです。

またセキュリティとは別にBedrock上でAIを評価や安全性の担保のための仕組みもいくつか紹介されており、特に下記についてはこれから調査していきたいです。

  • AWS Bedrock Guardrails
  • AWS Bedrock Evaluations

プロアクティブセキュリティ

AP-09セッションでは、セキュリティを「風邪をひかないように免疫力を高める」予防医学的アプローチで捉える概念が紹介されました。これが CREM(Cyber Risk Exposure Management:サイバーリスク露出管理) と呼ばれる手法です。

CREMの3つのサイクル

  1. 可視化(Visibility):何をどのように守るべきかを明確にする
  2. 優先度づけ(Prioritization):影響度と発生可能性でリスクを評価
  3. 軽減(Mitigation):評価に基づいた効果的な対策の実施

このサイクルを高速で回すために、生成AIの分析能力を活用するのがポイントです。

セキュリティ対策におけるAIの活用法

基本的には分析支援に活用します。

絶対に避けるべき使い方

AWS-21セッションでは、AIの活用について重要な原則が明確に述べられました:

「AIエージェントが主体となってセキュリティ上の判断を行うことは避けるべき」

AIの特徴として不確実性と説明可能性の課題が挙げられます。AIによる判断は完璧ではなく、誤判定による影響を考慮する必要があります。

推奨される活用方法

代わりに推奨されているのは、以下のような人間の判断を支援する役割です:

AIが得意な領域

  • 大量ログの高速分析:人間では処理しきれない膨大なデータから異常パターンを発見
  • 攻撃経路の予測:複数の設定や権限の組み合わせから潜在的な脆弱性を特定
  • リスクの可視化:複雑な情報を人間が理解しやすい形で整理・提示

人間が行うべき領域

  • 最終的な判断:AIの分析結果を基にした対策の決定
  • 文脈の考慮:組織固有の事情や業務要件を踏まえた判断
  • 責任の担保:セキュリティ判断に対する説明責任

従来技術が担う領域

  • 確実なブロック:決定された対策の実際の実行
  • 監査対応:規制要件に対応した証跡の提供

意味論的制御の必要性とその限界

ただし、すべてを機械的なルールで判別できるわけではありません。以下のような場面では、AIの意味理解能力が不可欠です:

  • 文脈を理解したプロンプトインジェクション検出:単純なキーワードフィルタでは見逃してしまう巧妙な攻撃
  • 業務利用と情報漏洩の判別:正常な業務での情報共有と悪意ある情報持ち出しの区別
  • 複雑な権限設定の組み合わせリスク:複数のIAMポリシーの相互作用で生じる意図しない権限昇格

これらの場面でAIの支援を受けつつも、最終的なブロック判断は人間が行い、実行は従来の確実な技術(ファイアウォール、IAM等)で行うという役割分担が重要です。

可視化の重要性

なぜ「可視化」が最重要なのか

すべてのセッションで共通して強調されていたのが「可視化」の重要性です。これは単なるログ監視やダッシュボード表示ではありません:

可視化の真の目的

  • 判断材料の整理:人間が適切に判断するための情報を分かりやすく提示
  • 優先順位の明確化:限られたリソースを最も効果的な対策に集中投資
  • 継続的改善の基盤:対策の効果を測定し、次の改善点を特定

AP-15セッションで紹介されたダッシュボードや、AWS-52セッション「責任あるAI」の評価指標可視化は、すべて 「人間がより良い判断をするため」のツール として位置づけられています。

可視化すべき重要指標

AI利用状況の可視化

  • どのAIツールが、誰によって、どの程度使用されているか
  • 承認済みツールと未承認ツール(シャドーAI)の使用状況
  • AIツールに入力されているデータの種類と機密度

リスク指標の可視化

  • プロンプトインジェクション検出数の推移
  • 機密情報の外部送信試行回数
  • 異常なアクセスパターンの発生頻度

パフォーマンス指標の可視化

  • AI応答の品質スコア(AWS-52セッションで詳述された4軸評価:品質・レイテンシ・コスト・信頼性)
  • システムの可用性とエラー率
  • セキュリティ対策にかかるコスト

リソース管理の観点

予防型アプローチの利点は、効果的なリソース配分が可能になることです:

  • 高リスク部分への集中投資:可視化により本当に危険な箇所を特定
  • 過剰防御の回避:予防で削減できる脅威には適切なレベルの対策
  • 継続的な効果測定:PDCA(Plan-Do-Check-Act)サイクルによる改善

これにより、セキュリティ投資のROI(投資対効果)を最大化できます。

まとめ

AI時代のセキュリティ戦略の要点

1. 脅威の変化への対応

  • 攻撃者のAI活用により従来の「事後対応」では限界
  • シャドーAI問題(50%以上の組織で未承認ツール使用)への対策が急務
  • プロンプトインジェクションなどAI特有の攻撃手法への備えが必要

2. 予防型アプローチへの転換

  • CREMサイクル(可視化→優先度づけ→軽減)の継続的実行
  • 従来の多層防御に加え、プロンプト層・モデル層・出力層の追加
  • AIは分析・予測に特化し、実際のブロックは従来技術が担当

3. 現実的な実装戦略

  • 段階的アプローチ:基盤固め→AI対策追加→最適化
  • 可視化による人間の判断支援を最優先
  • 完璧を求めず継続的改善を重視

継続的改善の重要性

セキュリティは「設定したら終わり」ではありません。新たな脅威の出現、技術の進化、組織の変化に応じて、継続的に改善していく必要があります。

以上、AWS Summit 2025 のセキュリティ関連のセッションから得られた私なりのまとめです。AIを恐れるのではなく、活用し、協調していくことで、新たな脅威にも対抗していけるはずです。


この記事は、AWS Summit 2025の以下のセッション内容に基づいて作成されました:

  • AWS-52: 責任あるAI - 生成AIアプリケーション評価のアプローチ
  • AWS-21: AWSによる生成AIのセキュリティアプローチ
  • AP-15: AIファースト時代に求められるクラウドセキュリティ
  • AP-09: 侵入経路予測でプロアクティブなセキュリティ

執筆の一部にClaudeを使用しています。

5
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
5
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?