LoginSignup
2
5

More than 1 year has passed since last update.

EUによるAI規制案の説明Part1

Last updated at Posted at 2021-05-27

久々に記事を書きます。
まず、宣伝です。

宣伝1
「Q&A AIの法務と倫理」という本を出版しました。
https://www.amazon.co.jp/dp/4502377317

宣伝2
AIと法律・倫理に関するシンポジウムを開催します。
https://www.aiandlawsociety.org/event-details/
無料です。人数に限りがありますので、登録はお早めに!!

さて、今回は最近発表されたEUのAI規制案の記事です。
長いですので、分割します。

0. はじめに

 EUの欧州委員会が、2021年4月21日に発表したAIの規制案について解説します。
 今回の規制案は、立法されれば非常にインパクトが大きいのですが、発表されたばかりのこともあり、また100頁を超える結構な長さの資料で内容も専門的なため、物凄く大まかな概要は報道等で説明されていますが、ある程度の詳細や規定内容の意味等について検討するものは見たことがなく、今回解説できればと思います。全4回の連載を考えていて、初回は、今回で規制の概要とAIの定義について触れます。2回目は、特定のAIの利用禁止についての規制を解説します。3回目は、ハイリスクAIに関する規制について説明します。4回目は、ハイリスクAI以外のAIに関する規制やその他の規制について説明します。あくまで予定ですので、進行状況により内容が変更されるかもしれません。
 また、今回の規制案の背景については、AI倫理と呼ばれる領域において様々な事案が発生しており、必要に応じて少し触れるかと思いますが、体系的に広く説明することはしません。このテーマについては色々文献がありますが、参考文献として自分が執筆者になっている「Q&A AIの法務と倫理」を紹介しておきます。
 最後に重要な点ですが、現状、資料などが非常に少ない中で取り急ぎの解説のため、解説内容が後日違っていることが判明することや誤解などがあり得るかもしれません。ご容赦ください。その際には、ご教示いただけると幸いです。

1. 規制の概要

  まず、規制の概要を解説します。今回の規制はAIを4つの種類にリスクベースアプローチで分類しています。リスクが高い順にあげると次のとおりです(名称は筆者が付したものです。)。
  ・利用が認められないAI
  ・ハイリスクAI
  ・特殊なリスクAI
  ・ローリスクAI
  特殊なリスクAIを除いて3つに分類していると紹介されることもあります。これは、特殊なリスクAIに関しては、ローリスクAIの一部として独立の類型として考えないというものかと思います ハイリスクAIであってもローリスクAIであっても適用されることとなっているため、独立の類型とは考えないということかと思います。今回の規制の条項を素直に読むと、この3つの分類の方が素直ですが、まあ、数え方の問題で本質的な問題ではないと思います。解説や理解のしやすい上記の4つの分類方法をこの解説では採用します。
  では、それぞれのAIがどのようなもので、どのような規制がされているかを軽く見てみましょう。

 ⑴ 禁止AI

   政府が行う社会信用システム、法執行目的での公共空間における人間に対するリアルタイムリモート生体認証AIなどは禁止となります。なお、法執行目的というのは、簡単にいうと警察目的なのですが、国によっては軍の治安部隊が存在したり麻薬取締が警察とは別の期間だったりと、警察的な活動を行っているのが「警察」だけではないこともあるため、法執行機関や法執行目的と言ったりします。まあ、とりあえずは「広い意味での警察」という程度の理解でよいかと思います。

 ⑵ ハイリスクAI

   リアルタイム又は事後のリモート生体認証AI、道路ガスなどのインフラの管理運用における「安全のためのコンポーネント」(safty components)などの規制案ANNEXⅢにリストアップされているAIが含まれます。ハイリスクAIについては、一定の要求事項が定められており、これを守ることや、その確保のために適合性検査を行うことやハイリスクAIデータベースへの登録などが求められています。

 ⑶ 特殊なリスクAI

   人間と相互交流(interact)するAIやコンテンツを生成するAIについては、なりすましや詐欺に利用される危険があるため、AIと相互交流していることを通知するなどの透明性に関する義務が課されています。

 ⑷ ローリスクAI

   上記以外のAIについては、特段の義務は課されません。ただし、ローリスクAIにも、ハイリスクAIと同じような要求事項をなるべく満たすように努力してほしいことは述べられています。

 ⑸ その他の規制

   このようなAIに対する規制だけではなくイノベーション促進のための制度も制定されており、AI規制のサンドボックス制度などが定められています。また、違反に対する制裁や規制される主体の範囲といった適用範囲の問題なども定められています。今回の解説では、適用範囲以外は、あまり扱わない予定です。

2. AIシステムの定義

ここでは、色々定められている定義のうち規制全体に関わってくるAIシステムの定義を解説します。規制案ではAIシステムを次のように定義しています。
3条1項 「人工知能システム」(AIシステム)は、AnnexⅠにリストアップされた技術やアプローチを一つ以上用いて開発されたソフトウェアであり、人間により定義された目標を与えられると、コンテンツ、予測、推薦又は相互作用する環境へ影響を与える決定などの出力を生成することが出来るものをいう。
なお、「相互作用する環境へ影響を与える決定」における相互作用の主体ですが、原文では「they」となっており、恐らく決定(decisions)を指すものと思われます。
そのうえで、AnnexⅠでは、次のように記載しています。

a. ディープラーニングを含む様々な手法を用いる機械学習アプローチ(教師あり学習、教師なし学習、強化学習を含む。)
b. 論理ベース又は知識ベースアプローチ(知識表現、帰納(論理)プログラミング、知識ベース、推論及び演繹エンジン、(記号)推論及びエキスパートシステムを含む)
c. 統計的アプローチ、ベイズ推定、探索及び最適化手法

一見すると普通に見えますが、非常に恐ろしいことを言っています。注意すべきは、bとcです。非常に単純な知識ベースアプローチによる推薦、例えば、好きな果物を「リンゴ」「オレンジ」等の何個かから選ばせ、仮にリンゴを選んだら必ず「リンゴを選んだあなたは甘酸っぱい果物が大好き!だから洋ナシもおすすめ!」というようなものまで、知識ベースアプローチで推薦(洋ナシを推薦している)しているのでAIシステムということになるわけです。また、居住地を選び、東京を選んだ場合、「明日の東京の降水確率は80%!外出には傘を持っていくのがおすすめです。」と表示する場合も、降水確率という統計アプローチで「傘を持ってゆく」という推薦をしているのでAIシステムということになるわけです。
つまり、誰もAIシステムとは思わないものまでAIシステムと定義しているのです。上記のような例は、ローリスクAIに該当するでしょうから実害はないのですが、やはり気持ち悪さの残る定義だと思います。ただ、ハイリスクAIのドメインで利用されるものであれば、単純な知識ベースアプローチや統計を用いたものであってもAIシステムに該当し、ハイリスクAIとしての規制を受けることには注意が必要です。
では、「東京の明日の降水確率は80%です」だけ表示して「傘を持ってゆく」等を何も推薦しないと良いのでしょうか。この場合、降水確率を示すことが、3条1項にいう「予測」または「相互作用する環境へ影響を与える決定」に該当するかが問題になるかと思います。確率を計算しただけですので「決定」というのは難しいでしょうから、「予測」かが一番のポイントになろうと思います。個人的には、「予測」といえそうに思います。となると、天気予報を示すソフトウェアもAIシステムということになります・・・

次回に続く!!

2
5
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
5