はじめに
こんにちは、Cotobox CPOの長島です。
今回はプロダクトマネージャー(PdM)がAIを活用する際に最低限知っておきたい、EUのAI規制(EU AI法)について解説します。
きっかけは、本日参加したWebinarです。
内容が非常に興味深かったので、記事にしたいと思いました。
なので今回は、こんにちざいネタは封印です。まじめな話ですから。(いつもまじめなつもりですが)
(こんにちざいに興味がある人は、過去の記事を参照ください。きっと知財の世界が身近に感じられるようになりms...
AIとコンプライアンス、というか法規制ですね。
このトピックを取り上げるのはまだ当分先のつもりでしたが、今日のこの温度感のままに記事を書くべきだなと思いました。
登壇されたのは、東京科学大学 AI全学教育機構 特任教授の鈴木 健二氏です。
鈴木教授についてはこちら。リンクは先生の許可を得て紹介させていただいています。
鈴木教授はAI倫理や規制に詳しく、特にEUが推進するAI規制について、最新動向とそれが与える影響を具体的に解説されました。
EU AI法は2024年2月に正式に施行され、 8月に施行され、禁止されるAIが適用開始になったのは翌2025年2月です。 欧州市場に向けてAIサービスを展開する場合は必ず理解が求められます。特に第5条1項に規定された「禁止されるAI」と、その罰則についてPdM目線で解説したいと思います。
(施行時期に誤りがありました。鈴木先生、ご指摘ありがとうございました!)
禁止されるAI(EU AI法 第5条1項)
EU AI法の第5条1項では、次の8種類のAIシステムが明確に禁止されています。
1. サブリミナル技術を利用したAI
- 潜在意識を操作し、本人が気付かないまま行動に影響を与えるAI
-
例: 無意識の購買行動を誘導する広告AI
(誤操作を導く広告もいいかげん規制して欲しいですが...)
2. 脆弱性を悪用するAI
- 子ども、障害者、高齢者など弱者をターゲットにして搾取するAI
- 例: 高齢者に不利な契約を結ばせるための操作的チャットボット
3. ソーシャルスコアリングAI
- 個人を評価・ランク付けし、その評価によって権利を制限するAI
- 例: 社会信用スコアシステム
4. 犯罪予測AI(特定属性を差別するもの)
- 人種や民族を用いて犯罪予測を行い、法的判断に影響を与えるAI
- 例: アメリカで問題視された犯罪予測システム「COMPAS」
5. 公共空間でのリアルタイム遠隔生体認証AI
- 公共の場所でリアルタイムに生体情報(顔認証など)を収集し識別するAI
- 例: 街頭カメラを通じたリアルタイム犯罪捜査のための顔認証
6. 感情認識AI(特定用途)
- 職場や教育機関などで個人の感情や内面を評価目的で推測するAI
- 例: 勤務評価に感情認識技術を使用するAIツール
7. 顔認識データベースの無許可クロールAI
- 本人の同意を得ずにインターネットやSNSから顔画像を収集してデータベースを構築するAI
- 例: Clearview AIのようなクロール型の顔認証サービス
8. センシティブ情報推測AI
- 人種、政治思想、性的指向、健康状態などをAIで推測・評価するシステム
- 例: ユーザーの投稿内容から性的指向や政治的傾向を分析するAI
どうでしょう。
私の印象は、そりゃこんなことやっちゃダメでしょう、というものから、え、これダメなの?というものまである、という感じでした。
サブリミナルはテレビとかでも禁止されていたかと思います。
スコアリングは...いやこれ私、やろうとしてました(汗
犯罪予測も確かアメリカのはずいぶん昔からありませんでしたっけ?
リアルタイム生体認証は中国にありますよね。
感情認識AIって、展示会行くといつもどこかにありますよね...あれおもしろいと思っていたんですが。
ただし例として挙げられていたんですが、飛行機のパイロットの感情認識 など、安全性につながるものはもちろん問題無いそうです。
さすがGDPRで世を賑わせたEU。これだけでかなり厳しいのがわかったのではないでしょうか。
PdMとして取るべき対応策
こうしたEU AI法の規制に対し、プロダクトマネージャーとして具体的に行動すべき点を以下に考えてみました。
1. ドキュメント管理と監査体制の整備
- AIサービスの開発・運用に関する文書化を徹底し、EU法遵守の証拠を整える。
- 外部監査に耐える運用体制を構築。
2. チーム教育・啓蒙活動
- 開発や運営に関わるメンバーに対し、規制内容や対応方法について教育を実施。
- 社内の認識を高めることで、実装フェーズでのリスクを軽減。
3. Explainable AI(説明可能なAI)の導入検討
- AIの判断や推論プロセスを透明化し、規制への対応を明示的に示せる機能を実装。
これで十分でしょうか?
どうでしょう、イマイチ決め手にかけます。
これだけやっても十分な気がしません。
何かしらのチェックリストみたいのを作ってもいいかもしれませんね。
次に、実際の罰則も見てみましょう。
罰則(EU AI法 第12章 第99〜101条)
EU AI法では、違反した場合の罰則規定が非常に厳しく設定されています。
違反内容 | 罰則(どちらか高額の方が適用) |
---|---|
禁止されるAIの使用(第5条違反) | 最大3,500万ユーロ、または企業の世界総売上の7% |
その他の義務違反(透明性や運用義務) | 最大2,000万ユーロ、または企業の世界総売上の4% |
届出義務違反などの軽微な違反 | 最大1,000万ユーロ、または企業の世界総売上の2% |
特に第5条の違反は非常に厳しい罰則を伴うため、プロダクト設計段階から明確に理解しておく必要があります。
どのように感じましたか?
とてもじゃないですが、後回しにできるものではないと理解いただけたのではないでしょうか。
まとめ
PdMとしてAIを活用する以上、規制への正しい理解と対応策を事前に検討することが求められます。特にEU規制のように厳しい法的枠組みでは、「知らなかった」では済まされません。
EU AI法は、日本市場向けのプロダクトでもインターネットを介して欧州で利用される可能性がある限り、無視できないものです。特に禁止されるAIとその罰則を事前に理解しておくことが重要です。
一方で、PdMが規制への対応を前提としてプロダクトを設計・運営することで、企業リスクの軽減、ユーザーからの信頼獲得、そして国際的競争力の強化に繋がります。
つまり逆に言うならば、規制を理解した上でAIの活用を推進することは、製品の持続可能性やユーザーからの信頼にもつながります。
こういった取り組みが、10年20年と使われ続けるサービスには必要不可欠なものになるでしょう。
この記事が、規制を適切に理解し、プロダクト開発の実践的な支援となれば幸いです。
それではまた次回。