EU AI法の施行が始まるにあたり、高リスクAIシステムを開発(法文では「providing:提供」)、使用(同「deploying:導入」)、輸入、配布する組織は、同法第2章および第3章で定められた新たな義務に直面することになります。
なかでも、提供者および導入者は、第9条から第15条に記載されているような、最も本質的かつ体系的な義務を負うことになります。これらの要件は、特定された高リスクAIシステムが欧州市民の基本的権利、安全、健康を損なわないようにするために設計されています。
AI法は、リスクのレベルを4段階に分類しています:禁止、高リスク、限定的リスク、最小リスクです。禁止されたシステムは完全に使用が禁じられており(第5条)、限定的リスクのシステムは、チャットボットの開示義務など、軽微な透明性要件の対象となります。対照的に、高リスクシステムには、とくに提供者や導入者に対して、最も詳細なコンプライアンス上の負担が課されます。そのため、ここではこの部分に注目します。これらは、組織のプロセスや調達、監督に最も影響を与える可能性が高い規則だからです。
当社のAIガバナンスソリューションであるDataiku Governは、リスク管理から市販後のモニタリングまで、これらの義務を組織で実行可能にする支援を行います。本記事では、各条項が求める内容と、欧州委員会からの追加ガイダンスが今後期待される分野について解説します。本記事は、コンプライアンス対応や調達計画を進める非技術系チームにとって必読の内容です。
高リスクAIシステムとは
高リスクAIシステムが保護されるべき公共の利益を損なう可能性があることを示すスコープに加え、AI法は、付属書IIIに記載された具体的なユースケースによってその定義をさらに明確にしています。これらのユースケースは、ドメインと呼ばれるカテゴリに分類されており、バイオメトリクス、重要インフラ、教育および職業訓練、雇用、労務管理、自営業へのアクセス、民間および公共の基礎的サービスや給付へのアクセスと利用、法執行、移民、亡命、国境管理、司法および民主的プロセスの運営などが含まれます。各ドメイン内では、高リスクのユースケースまたはアプリケーションが明確に定義されています。欧州委員会は、これらのドメインおよびユースケースが将来的に変化する可能性があることを明言しています。
ドメインおよびユースケースに加えて、高リスクAIシステムの定義には、特定の整合化法令(付属書I)で対象とされるAIシステムも含まれます。これには、EUの製品安全法によりすでに規制対象となっている製品の安全コンポーネントとしてのAIシステムが含まれます。例えば、医療機器(医療機器規則など)や機械(機械規則など)に該当します。
把握すべき主な期限:
-
2026年8月2日 → すべての高リスクAIシステムは、リスク管理、データガバナンス、適合性評価などを含む基本要件(第9条〜第49条)に準拠しなければなりません(All high-risk AI systems must comply with core requirements (Articles 9–49), including risk management, data governance, and conformity assessment)
-
2027年8月2日 → EUの製品安全法に基づき、規制対象製品(例:医療機器、機械)に組み込まれた高リスクAIシステムのコンプライアンス期限です(Compliance deadline for high-risk AI systems embedded in regulated products (e.g., medical devices, machinery) under EU product safety laws)
自社でこれらの分野においてAIを開発、購入、使用している場合、影響を受ける可能性が高いため、今すぐ準備を始めるべきです。
コンプライアンス対応に着手する前に、自社が高リスクカテゴリーに該当するAIシステムを開発または使用しているかどうかを、確信をもって把握する必要があります。この認識がなければ、大きなリスクにさらされることになります。一部の専門的なユースケースについては法務部門との協議が必要となる場合もあり、この評価が常に明確に白黒つけられるとは限りません。たとえば、不正検知エージェントが不正リスクを評価し、それを保険料に組み込む形で使用されることがあります。これが高リスクシステムに該当するかどうかは慎重な判断が必要です。不正を検知するAI自体は本質的に高リスクではありませんが、保険料の決定にAIを用いることは高リスクと見なされます。したがって、すべての組織にとって最初のステップは、自社のAIポートフォリオ全体に対する徹底した文書化された評価を行い、影響を受けるシステムを特定することです。
第9条〜第15条:主要な義務と未解決の論点
自社のAIポートフォリオを評価し、高リスクシステムを特定しました。次にすべきことは何でしょうか?この記事の残りでは、第9条〜第15条で示された主要な義務について順を追って解説していきます。これらは重要な内容ですが、EU AI法にはさらに多くの側面があります。たとえば、さまざまな関係者の役割、汎用AIに関するコンプライアンス、そして今後どのように施行されるか(これについては今後のアップデートで取り上げます)などです。
1. 第9条 - リスク管理システム(Risk Management System)
現時点で明らかになっていること:
設計から市販後モニタリングに至るまで、AIライフサイクル全体を対象とした、文書化され継続的なリスク管理プロセスを実施する必要があります。これには、健康、安全、基本的権利に関する既知および予見可能なリスクの特定と評価が含まれます。
曖昧な点:
- 「既知および予見可能な」リスクとは具体的に何を指すのか
- AIシステムが新規で、運用データが限られている場合に、どのようにリスクを特定すべきか(データギャップの問題)
- 新たなリスクが判明した場合、優れた再学習手法とはどのようなものか、そしてその再学習がどのようにリスク管理の更新と連動すべきか(ベストプラクティスの問題)
2. 第10条 - データおよびデータガバナンス(Data and Data Governance)
現時点で明らかになっていること:
AIシステムは、妥当な範囲で、関連性があり、代表性があり、エラーがなく、完全なデータセットで学習、検証、テストされなければなりません。
曖昧な点:
- 「代表性がある」または「エラーがない」とは、運用上どのように定義されるのか
- データの不完全さに対する許容可能な閾値とは何か
- 理想的なデータが入手できない場合(例:バイアスのある過去のデータセットなど)、どのような緩和策が許容されるのか
3. 第11条 - 技術文書(Technical Documentation)
現時点で明らかになっていること:
システム設計、意図された用途、学習データの出所、テスト方法、リスク管理などを含む、法令付属書IVで定められた要件に基づき、コンプライアンスを証明するための詳細な技術文書を保持する必要があります。
曖昧な点:
- 複数の必須テーマにわたって、どの程度の詳細さが求められるのかの明確化
- 機密情報や知的財産に関わる情報の取り扱いに関するガイダンス
- 時間の経過に伴う更新をどのように管理するか(例:バージョン管理、トレーサビリティー)
4. 第12条 - 記録保持(Record-Keeping)
現時点で明らかになっていること:
高リスクシステムは、トレーサビリティー、パフォーマンス追跡、市販後モニタリングを支援するために、イベントを自動的にログに記録する必要があります。ログは改ざん防止機能を備え、適切に保持されなければなりません。
曖昧な点:
- ログの粒度、形式、保存期間といった主要なテーマに関する実装ガイドラインが期待されています。とくに市販後モニタリング(第29条~第30条)に関連する点が重要です
5. 第13条 - ユーザー向けの透明性と情報提供(Transparency and Information for Users)
現時点で明らかになっていること:
ユーザーには以下の点について明確な言葉で情報を提供しなければなりません。
- システムの意図された目的
- その限界およびパフォーマンス特性
- 適切な使用方法
曖昧な点:
- エンドユーザーまたは影響を受ける個人にとって「意味のある情報」とは何か
- AIリテラシー要件(第4条)と第13条との整合性はどのように取られるのか
- これが営業秘密やブラックボックス型モデル(例:ディープラーニング)とどのように関係するのか
6. 第14条 - 人による監督(Human Oversight)
現時点で明らかになっていること:
リスクを防止または最小化するために、効果的な人による監督を確保できるようシステムを設計する必要があります。監督の仕組みは文書化され、監督の役割を担う人物には適切な訓練が施されなければなりません。
曖昧な点:
- 実際にどの程度の人による監督が「十分」と見なされるのか
- システムとのインタラクションの形態(例:ヒューマン・イン・ザ・ループ、オン・ザ・ループ、オーバー・ザ・ループ)に関する明確化
- 監督する人間にどの程度の権限や介入能力が求められるのか
7. 第15条 - 正確性、堅牢性、サイバーセキュリティー(Accuracy, Robustness, and Cybersecurity)
現時点で明らかになっていること:
高リスクAIシステムは、そのライフサイクル全体にわたり、適切なレベルの正確性、堅牢性、サイバーセキュリティーを維持し、エラー、不正使用、敵対的攻撃に耐えなければなりません。
曖昧な点:
- パフォーマンスのベンチマークや許容範囲の基準とは何か
- 正確性がサブグループや状況ごとに均一である必要があるかどうか
- どのようなサイバーセキュリティー基準や認証が求められるのか
市販後モニタリング(第29条~第30条)
第9条〜第15条は、導入後のモニタリング義務と密接に関連しています。例えば:
- システムの正確性が時間の経過とともに低下する場合、それを検知、報告、修正しなければなりません
- 市場投入後も継続的なリスク評価が求められ、一度きりで終わるプロセスではありません
これらの運用タスクをコンプライアンス要件とどのように整合させるかについて、今後のガイダンスが待たれます。
今すぐできること
ステークホルダーやチームが、市場で義務が発効するタイミングに備えて準備できるようにするため、多くの組織は不明確な点が残る中でもコンプライアンスに向けた取り組みを進めています。この取り組みにより、今後ガイダンスが示された際には、運用上の仮定を修正する必要が出てくるかもしれませんが、目的は現行の運用と今後示されるガイダンスに基づく運用とのギャップを縮めることです。
ガイダンスを待つ間でも、非技術系ステークホルダーが準備を始めるためにできることの例:
- AI法で定められている高リスク要件について、しっかりと理解する
- 自社の現在および将来的なAI活用状況を、付属書III(高リスク領域)および付属書I(EU整合法令)と照合し、自社のAIシステムのどれが高リスクに該当する可能性があるかを特定する
- 自社の現在の運用が、第9条~第15条の趣旨に沿っているかを評価する
- ログ運用、監督の役割、データガバナンスポリシー、チームおよび組織内での責任分担など、重要なギャップを特定し、今後注力すべき領域を把握する
- ドキュメントで裏付けられたコンプライアンスポリシーの構築を今から始めましょう。後に必ず必要になります
Dataiku Governは、組織が自社のAIシステムに関するドキュメントと管理体制を確保できるよう支援するために設計されています。これには、AI法への対応準備だけでなく、他の多様なコンプライアンス活動への支援も含まれます。
次に備えて
欧州委員会は、2025年後半に実装ガイドラインを発表すると見込まれています。それまでの間は、第9条~第15条の構造に基づいて早期に準備を進めることが、トレンドを先取りし、責任あるAIリーダーシップを示す最良の方法です。
続報にご注目ください。EU AI法を明確かつ自信を持って運用できるよう、実行可能な最新情報を引き続き発信していきます。
EU AI法コンプライアンスの先手を打ちましょう
明確なフレームワークを通じて、今後施行されるAI規制へのコンプライアンス対応をいち早く開始し、規制上の安全性と信頼性の高い導入を実現しましょう。
→Dataikuで今すぐ準備を始めましょう(英語)
原文:EU AI Act High-Risk Requirements: What Companies Need to Know
