2
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

F5 AI Guardrails / F5 AI Red Team 発表! AI セキュリティの未来を考える

Last updated at Posted at 2025-10-01

(1) CalypsoAI の買収と F5 AI Gataway の進化

CalypsoAIは実運用で使えるAIセキュリティにフォーカスし、リアルタイム防御、レッドチーミング、データ保護を柱にしてきました。F5はx月x日に CalypsoAI を買収・統合することで、アプリ/APIの保護に加え、AIモデル/エージェントの保護までを一体化し運用する体制を提供可能としました。
モデルに依存しない実行環境へのセキュリティ(Guardrails)と自律エージェント群による大規模レッドチーミング(Red Team)がプラットフォームとして提供されます。 F5 が提供するCASI(Comprehensive AI Security Index)や10,000件/月超の新規攻撃パターン更新といった研究資産を公開・運用し、継続的な脅威追随を取り込んだプロダクトとしてアナウンスされています。

(2) Guardrails と Red Team

F5 AI Guardrails(実行時防御)

目的:推論経路上での入力/出力の検査・制御により、敵対的攻撃(Prompt Injection/Jailbreak)、データ漏洩(PII/コード/機密)、規制違反をリアルタイムに抑止。モデルに依存しないガバナンスと監査ログで説明可能性を担保します。

F5 AI Red Team(攻撃検証)

目的:自律エージェントの "群" で数千〜万規模の攻撃シナリオを連続実行し、AIアプリ/モデル/エージェントの既知・未知の脆弱性を短時間で可視化。数クリックでGuardrailsの防御ポリシーへ反映することで、検証→防御の閉ループを短サイクルで回せます。脅威ライブラリは毎月1万件超の新しい攻撃パターンで更新され、Agentic攻撃も含む最新手法に追随。

(3) なぜガードレールとレッドチームの二本立てなのか

攻撃面の可視化(Red Team)実行時の強制力(Guardrails) を分離し、
相互に接続することで継続的なAIセキュリティ運用をループさせるためだと考えています。

image.png

1. Red Teamが攻撃成功経路や影響が大きい箇所を特定し、優先度付きの改善知見を出す
2. Guardrailsが実トラフィック上の入力/出力に即時の統制をかけ、監査ログで実効性を可視化
3. 両者は統合運用され、防御反映→運用監視→再検証のループを前提に AI を運用ができます

(4) AI セキュリティのフレームワークのトレンドとユーザがやるべきこと

ガートナーが提唱する AI TRiSM (Trust, Risk, Security Management) というフレームワークが、 今回の買収劇と製品拡張につながってきていると公開情報が考えられます。

AI TRiSMは、AIモデルのガバナンス、信頼性/公平性、堅牢性、運用、データ保護、敵対的耐性などを包括管理する考えで、 Gartner定義の中核は、ポリシーの強制と継続的な監視・検証になっています。

参考リンク : AI TRiSM (AIのトラスト/リスク/セキュリティ・マネジメント) とは?
https://www.gartner.co.jp/ja/articles/ai-trust-and-ai-risk

上記を証明するように F5 は買収発表時点からTRiSMのフレームワークを補強する狙いを明確化し、AIランタイムの強制(Guardrails)と継続検証(Red Team)をで束ねることで、TRiSMの運用要件(ガバナンス/監査/継続テスト/ポリシー適用)を実装しやすい形に整理してる記事を出しています。

参考リンク : F5’s announcement to acquire CalypsoAI builds towards TRiSM framework
https://www.f5.com/company/blog/f5s-announcement-to-acquire-calypsoai-builds-towards-trism-framework

アナウンスされている情報を元に AI TRiSM と AI Red Team / AI AI Red Team の脅威マトリクスをまとめました。

image.png

今後 AI を利用するユーザは一番左側の証跡・KPIをどう保持するか?運用上、どう活用するか?がポイントになりそうです。

(5) まとめ

今回の発表は生成 AI セキュリティにおいて AIの実行統制(Guardrails)と継続的検証(Red Team)を一体化して運用することが AI 機能を利用するサービス利用者に求められることだということが改めて明らかになりました。
AI Red Team / AI AI Red Team のそれぞれの製品は、検出・検証強制・監査 を分離しながらも AISecOps をループでつなぐと共に F5 のノウハウである脅威の更新速度(10,000+/月)と運用に耐えるプロダクトとして昇華されています。
またこの製品のアップデートは AI TRiSMの要件に整合し、アプリ/API/AIを同じ運用面で守る道筋を示すものになります。
実際に製品の導入事例や実運用など情報が公開されていくのが待ち遠しいですね!

(6) 参考情報

2
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?