はじめに
2025年8月、Gartnerが発表した「AI Hype Cycle」では、**AI TRiSM(Trust, Risk, and Security Management)**が注目技術として取り上げられました。AIの信頼性・公平性・セキュリティを担保するこの枠組みは、AIの社会実装において不可欠な要素です。
しかし、AI TRiSMがカバーするのはあくまで「AIアクター自身のインテグリティ」です。どれほど優れたAIでも、与えられた情報が不完全であれば誤った判断を下す可能性は常に存在します。これは人間にも共通する限界です。
アクターがAIであろうと人間であろうと、適切なコントロールと監査証跡は必要ということになります。
AI TRiSMの外側で求められるものは?
AI TRiSMは「AIアクターの健全性」を担保しますが、操作対象への無限の権限あれる場合にどうなるでしょうか。不適切な操作を許し、結果として誤作動を起こすかもしれません。そうした際に、AIの管理責任の所在が曖昧になります。AIを「責任ある意思決定者」として扱うには、権限・責任範囲の明確化と、それを支える制度設計・運用体制が不可欠です。つまり、AI TRiSMだけでは不十分であり、人間側の準備と補完的な仕組みが必要です。
例えば、悪意を持ったシステム開発者が、内部知識を持ってAIアクターに情報を提供することで、不正な行動を促し、権限のあるAIが実行してしまうかもしれません。
この様に、AI TRiSMの限界を補完し、AIをビジネスの中で責任ある形で活用するためには、AIを受け入れる側のプラットフォーム設計で適切なコントロールが必要です。これまでのシステムの権限管理は、AIは、作業者の倫理観等に依存して手を付けてこなかったり、誰も想定すらしなかった権限の利用方法を実施するかもしれないのです。
AIを受け入れるプラットフォーム設計に求められる要素
AIアクターが業務に介入する際、従来の人間中心のシステム設計では対応しきれないリスクが顕在化します。これを防ぐためには、AIを受け入れるプラットフォーム側に、以下のような設計思想と技術的要素が求められます。
-
権限の粒度管理と動的制御
AIに与える権限は、静的なロールベースアクセス制御(RBAC)だけでは不十分です。AIの判断や行動は状況依存であるため、**コンテキストに応じた動的な権限制御(ABAC:属性ベースアクセス制御)**が必要です。これにより、AIが「いつ」「どこで」「誰に対して」何を実行できるかを柔軟に制御できます。 -
操作ログの完全性と可観測性
AIの行動は、後から検証可能でなければなりません。人間の操作ログと同様に、AIの意思決定プロセスや入力情報、出力結果を時系列で記録し、改ざん不可能な形で保存する必要があります。これにより、監査やトラブルシュートが可能になります。 -
AIアクターの「ロール人格」定義
AIが複数存在する環境では、それぞれのAIに対して役割・責任・行動範囲を明確に定義する必要があります。これは、AIを単なるツールではなく、業務プロセスの一部として扱うための前提条件です。AIごとに「ロール人格」を持たせることで、責任の所在を明確化できます。
ここでの「ロール人格」は、例えば「承認者」であれば、単に求められているシステム定義上の「承認」の為の知識だけでなく、申請者や申請者代行AIの上長としての承認代行AIであって対象処理が申請者の通常の守備範囲なのか、知識の範囲を超えていないかなどを判断する人格をも兼ね備えるものです。 -
人間との協調設計
AIが自律的に判断する場面でも、人間とのインタラクション設計は不可欠です。AIが判断に迷った場合や、異常を検知した場合には、人間にエスカレーションする仕組みを設けることで、最終的な責任を人間が担保できます。
今後実践すべき具体的な活動項目を整理し、それぞれについてのIT業界での進捗状況**を外部リファレンスをもとにまとめてみました。
ITオペレーションにおけるAI活用要素の現状評価
ITオペレーションにおけるAI活用の4要素(権限管理、操作ログ、ロール人格定義、協調設計)は、技術的な基盤は整備されつつあるものの、実運用における標準化・実績・制度設計の面ではまだ発展途上です。特に「AIのロール人格定義」や「人間との協調設計」のような人間との関係性に関わる領域は、技術だけでなく倫理・文化・制度の整備が必要であり、時間を要する分野です。一方、「権限管理」や「操作ログ」などの構造的・技術的な領域は、クラウドベンダー主導での実装が進んでおり、今後の自動化・統合化に向けた発展が期待されます。
■ 各要素の評価と背景
① AI権限管理(ABAC)
- 実現度:部分的に実現されている
- 評価:AzureやAWSなど主要クラウドでのABAC実装は進んでおり、RBACとの併用で柔軟なアクセス制御が可能です。
-
課題:
- 業界横断的な属性定義が未整備
- クラウド間・製品間での標準化が不十分
- ビジネスアプリケーションのレイヤーへの操作は対象外
-
引用:
-
Microsoft Learn:
「Azure ABAC は、Azure RBAC を基盤としたものであり、特定のアクションのコンテキストにおける属性に基づいたロールの割り当て条件を追加することにより構築されます」
-
AWS Whitepaper:
「ABACは、部署、役職、チーム名など、ユーザーの属性に基づいて、きめ細かなアクセス許可を設定する方法です」
-
Microsoft Learn:
② AI操作ログ・可観測性・監査証跡
- 実現度:広く実現されているが改善の余地あり
- 評価:Microsoft PurviewなどでCopilotの操作ログが自動記録され、監査証跡として活用可能。ログの粒度や保持期間も整備されつつあります。
-
課題:
- 検知は可能だが、対処の自動化は未整備
- 実績が限定的で、業界全体でのベストプラクティスが不足
-
引用:
-
Microsoft Learn - Purview Audit:
「Copilot と AI アプリケーションを使用したユーザー アクティビティは、監査ログに自動的に記録され、どのユーザーがいつどこで対話したかの詳細が含まれます」
-
Microsoft Learn - Purview Audit:
③ AIアクターのロール人格定義・責任範囲
- 実現度:初期段階にある
- 評価:ISO/IEC 42001などのフレームワークは整備されつつあるが、実装事例が少なく、業界でのコンテンツ定義が未確立。
-
課題:
- フレームワークはあるが、ロール人格定義のコンテンツが未確立
- 実績が少なく、導入事例が限定的
-
引用:
-
EY Japan - ISO 42001:
「AIマネジメントシステムの確立・維持・継続的改善に向けた一連の基準を提供することで、AI技術の慎重な導入に伴う懸念や課題に対応」
-
EY Japan - ISO 42001:
④ AIと人間の協調設計(インタラクション)
- 実現度:研究段階にある
- 評価:HAI(Human-Agent Interaction)分野での研究は進展しているが、実装は部分的で、標準化された設計指針が未整備。
-
課題:
- 考え方の整理は進行中だが、部分的な機能実装に留まる
- 標準化された設計指針が未整備
-
引用:
-
Panasonic 技術ジャーナル:
「人間と継続してうまくやっていくエージェントの外見は、その真の能力を下回る能力を期待させるものが望ましい」
-
Panasonic 技術ジャーナル:
総括
Gen AIやAgentic AIによる自律性が現実に見えてくる中で AI TRiSM(Trust, Risk, and Security Management) のニーズが高まっているのは当然の成り行きであるが、現時点のAIアクターに閉じた対処では限界がある。現実の業務アプリケーションのオペレーションに関わる実際のアクターとして受け入れる為の準備として何が必要かを検討し、それらの現状を確認したが業務アプリケーション及びオペレーション・プラットホームでできているとは言えない。
このAIを含めたEnd to Endの自動化は必ず発生するAI TRiSMの次のステップであり、IT業界全体での技術の発展が望まれていると感じる。