LoginSignup
0
0

More than 3 years have passed since last update.

勉強のために AI倫理編

Posted at

はじめに -初期衝動-

はじめまして、"たたた"ですm(_ _)m
G検定対策の勉強をシヨウシヨウと思っても
ヤルヤル詐欺になってますorz

ぶっちゃけると
ふええんAIとかよくわかんないよ〜、という現状です。
ヤバイです。

...そんなわけで
流石にまずいと感じ始めたので、
自分用にそれっぽいトピックをまとめてみようと思いました。

先輩方、もしよければ
ご指導ご鞭撻のほどよろしくお願い致します。

今回の本題 -AI倫理について-

さて、記念すべき第一回は、
一体全体ナニをどうやって勉強したらいいのかよくわからないランキング1位の
AI倫理についてざらっと紹介してみます。

G検定合格談みたいな記事探すと、
AI倫理や法律が難しいとおっしゃる方が多くてビビってます。
ただ、そのわりには不思議と解説記事が少なかったのでいろいろと詰め込んでみました。

え?もしかしてAI倫理に関する記事の規制制度とかあります?( ゚д゚)
もしあったら教えてください即刻削除します。

それと、文が長くなってしまいました。
見辛かったらすみません。

イントロダクション

まずはじめに、
"AI倫理;Ethics of artificial intelligence"の定義を探しました。
結論から言うと"人工知能;artificial intelligence"と同様に、
様々な方々や団体が定義づけしているようです。

なかなか、コレ!と断定してる文献が見つからなく、
関連ワードや人名から論文等を当たってみましたが、
いかんせん範囲が広く、脳が飽和しました\(^^)/

当然といえば当然ですが、
新技術の開発や一般化などにより時代とともに変遷しているようです。

とはいえ、この記事の目的は勉強なので、
網羅的な内容の把握を目指して各種まとめてみました。
それでは参りますϵ( 'Θ' )϶

①AI倫理の定義

芳田千尋氏の論文
「AI倫理に関する現状(2019)」では、

「人工知能技術を応用したシステムに関する倫理」とありました。

中川裕志氏の論文
「AI倫理指針の動向とパーソナルAIエージェント(2020)」では、

「AIは野放図に開発すると脅威になるという感覚が生まれ、AI を人間の制御下に置くための方策」とありました。
また、こうした思想が生まれた背景として、
シンギュラリティや汎用人工知能の脅威について触れた言説の存在が挙げられていました。

(おそらく私が調べ切れていないだけだと思いますが)
日本語で探してもどうもはっきりとした定義が見つからなかったので、
英語での検索にシフトしました。

ただ、"倫理"という単語をググると、
コトバンク
https://kotobank.jp/word/倫理-660231
「人として守るべき社会生活における道理」といった趣旨の説明がされているので、
それをAIに適用すると
「AI利用や開発等において、人として守るべき社会生活における道理」となると思います。

最初に目に入ったのが
ニック ボストロム;Nick Bostrom氏の論文です。

この「THE ETHICS OF ARTIFICIAL INTELLIGENCE;人工知能の倫理(2011)」では、
様々な例を挙げながら、
将来的にこのような考えを考慮しないといけないというような内容が沢山載っていました。
先見の明とでもいうのでしょうか?
AIの社会実装における問題提起として、非常に面白い内容ばかりでした。

ただ、直接的な論文タイトルに反してAI倫理の定義はしっかりとされていませんでした。
(しっかりと読み込んだわけではないので見逃しているだけかもしれませんが)

Abstractのなかにある
"the issues of creating AIs more intelligent than human, and ensuring that they use their advanced intelligence for good rather than ill."
AIを人間よりも知的なものにし、高度な知能を悪ではなく善のために使うようにするという課題

という箇所が一番それっぽい気がします。

また、Conclusionでは、
Sufficiently general AI algorithms may no longer execute in predictable contexts, requiring new kinds of safety assurance and the engineering of artificial ethical considerations.
十分に一般的なAIアルゴリズムはもはや予測可能な状況では実行できない可能性があり、新しい種類の安全性の保証と倫理的配慮のうえでのエンジニアリングが必要になる。

とも書いてありましたが、
そもそもこの当時、はAI倫理も現在ほどしっかりとは定められていなかったようです。

というわけで、
まだ定義がぼんやりとしているので、
手っ取り早く、これはなんぞやという説明をしてくれそうなWikipedia先生に聞くことにしました。

結果、
https://en.wikipedia.org/wiki/Ethics_of_artificial_intelligence

The ethics of artificial intelligence is the branch of the ethics of technology specific to artificially intelligent systems. It is sometimes divided into a concern with the moral behavior of humans as they design, make, use and treat artificially intelligent systems, and a concern with the behavior of machines, in machine ethics. It also includes the issue of a possible singularity due to superintelligent AI.
AI倫理は、人工知能システムに特有の技術倫理のひとつである。
機械倫理においては、人工知能システムを設計、製作、使用、処理する際の
人間の道徳的行動に関する懸念と、機械の行動に関する懸念に分けられることがある。
また、超知能AIによるシンギュラリティついても言及している。

うーん、
これだけみるとなんだかDetroit:Become Humanを思い出しますね。https://www.jp.playstation.com/games/detroit-become-human/

どうやらmachine ethics;機械倫理(ロボット倫理)とも密接な関係があるようです。
具体例もいろいろあるようですが、
天下のWikipedia先生も、シンプルな一言ではまとめてくれませんでした。

また、
さらに調べて辿り着いた
Stanford Encyclopedia of Philosophy

の、文中1.3 A Note on Policy(方針についての注記)では

For people who work in ethics and policy, there might be a tendency to overestimate the impact and threats from a new technology, and to underestimate how far current regulation can reach (e.g., for product liability). On the other hand, there is a tendency for businesses, the military, and some public administrations to “just talk” and do some “ethics washing” in order to preserve a good public image and continue as before. Actually implementing legally binding regulation would challenge existing business models and practices. Actual policy is not just an implementation of ethical theory, but subject to societal power structures—and the agents that do have the power will push against anything that restricts them. There is thus a significant risk that regulation will remain toothless in the face of economical and political power.
(翻訳&要約)
倫理や政策に関わる側は、新しい技術の影響や脅威を過大評価し、
現行の規制がどこまで行き届くかを過小評価する傾向があるかもしれない。
逆に、企業や軍、一部の政治家は良いイメージを維持し続けるために
「ただ話をする」や「倫理洗浄」をする傾向がある。
実際に法的拘束力のある規制を実施することは、既存のビジネスモデルや慣行に挑戦することになる。
現実の政策は倫理理論の実践ではなく、社会の権力構造に左右され、
権力を持つ主体は、それを制限するものに圧力をかける。
したがって、経済的・政治的権力に直面しても、
規制が骨抜きのままであるという重大なリスクがある。

と、これまた興味深い内容と様々な具体例も載っていました。

ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー

さて、
ここまで調べてからようやく、
これは各々(国、団体、事例等)をしっかり勉強しないと話が始まらないな
と、勉強の道筋が見えてきました。

②へ進みます。

②AI利用におけるガイドライン(指針)

定義だけ見てもよくわからなかったので具体的な文書を探しました。
うまくまとめられず長くなってしまったので、
②-αと②-βで二つに分けて紹介します。

また、
指針の公表組織がオレンジ
基本理念が紫
原則はピンクで分けています。

②-α 日本国の場合

日本国政府 -人間中心のAI社会原則-

内閣府、AI戦略実行会議が2019年に公表したAI倫理指針です。

文書の構成をおおまかにまとめると、
基本理念→ビジョン→原則、の順となっています。

基本理念
3つの基本理念が掲示されていました。
タイトルをそのままにして、以下に要約します。

人間の尊厳が尊重される社会(Dignity)
人間が過度にAIに依存したり、行動をAIに制御されるのではなく、
人間が道具としてAIを使いこなすことによって人間の能力発揮を助長する

多様な背景を持つ人々が多様な幸せを追求できる社会(Diversity & Inclusion)
多様な背景と価値観、考え方を持つ人々が多様な幸せを追求し、
それらを柔軟に 包摂した上で新たな価値を創造できる社会のためにAIを適切に開発および展開する

持続性ある社会(Sustainability)
社会の格差を解消し、地球規模の環境問題や気候変動などにも対応が可能な、
持続性のある社会を構築するために科学的・技術的蓄積をAIによって強化する

ビジョン(AI-Readyな社会)
visionということなので、
日本が目指す社会の姿ということでしょうか?
文書では、AI-Readyな社会という単語でまとめられていました。
以下が説明文を要約したものです。

AI-Readyな社会
社会全体がAIによる便益を最大限に享受するために必要な変革が行われ、
AIの恩恵を享受している、または、必要な時に直ちにAIを導入しその恩恵を得られる状態

具体例としては、

個人
「すべての人が仕事や生活でAIを利用できるようなリテラシーを身に着ける状態」
企業
「AI活用を前提とした経営戦略に基づいたビジネスを展開し、
あらゆる情報がAI解析可能なレベルでデジタル化、データ化され、イノベーション環境では、
AI開発やサービス提供のために活用できる状態」

だそうです。(国民はみんなG資格保持者になれってことですかね?)
義務教育にAIのことが組み込まれる日もそう遠くなさそうですね( ゚д゚)

AIを用いて複雑な処理を機械にある程度任せられることが可能になっても、
「何のためにAIを用いるのか」という目的設定は、人間が行う必要がある。
〜中略〜
我々は、「何のためにAIを用いるのか」に答えられるような
「人」「社会システム」「産業構造」「イノベーションシステム」「ガバナンス」
の在り方について、技術の進展との相互作用に留意しながら考える必要がある

AIの社会実装において、
上記の前提があり、5つの観点を設けたうえで、
各項目の役割が記載されていました。
今回は省略いたします。

AI社会原則
おそらく、
試験においてはこの辺が最も重要なんじゃないかと予想します。
7つの社会原則と、それを踏まえたうえでのAI開発利用原則が載っていました。
要約し、順を追って紹介します。

1.人間中心の原則
AI利用は、憲法及び国際的な規範の保障する基本的人権を侵すものであってはならない。
・AI利用がもたらす結果については、問題の特性に応じて、AIの開発・提供・利用に関わった
種々のステークホルダーが適切に分担して責任を負うべきである。
・各ステークホルダーは、AIの普及の過程で、いわゆる「情報弱者」や「技術弱者」を生じさせず、
AIの恩恵をすべての人が享受できるよう、使いやすいシステムの実現に配慮すべきである。
2.教育・リテラシーの原則
AI に関わる政策決定者や経営者は、AIの複雑性や、意図的な悪用もありえることを勘案して、
AIの正確な理解と、社会的に正しい利用ができる知識と倫理を持っていなければならない。

・AIを前提とした社会において人々の格差や弱者を生み出さないために、
幼児教育や初等中等教育においてリテラシー等の教育機会が提供されるほか、
社会人や高齢者の学び直しの機会の提供が求められる。
・誰でもAI、数理、データサイエンスの素養を身につけられる教育システムとなっているべきであり、
全ての人が学ぶ必要がある。リテラシー教育には、データのバイアスなどの特性があること、
公平性・公正性、プライバシー保護に関わる課題があることを認識できるような、
セキュリティやAI技術の限界に関する内容を備えることも必要である。
・このような教育環境の整備に向けて、行政や学校(教員)に負担を押し付けるのではなく、
民間企業や市民も主体性をもって取り組んでいくことが望ましい。
3.プライバシー確保の原則
パーソナルデータが本人の望まない形で流通したり、利用されたりすることによって、
個人が不利益を受けることのないよう、パーソナルデータを扱わなければならない。

・パーソナルデータを利用したAI及びそのAIを活用したサービス、ソリューションにおいては、
政府における利用を含め、個人の自由、尊厳、平等が侵害されないようにすべきである。
・パーソナルデータを利用するAIは、当該データのプライバシーにかかわる部分については、
正確性、正当性の確保及び本人が実質的な関与ができる仕組みを持つべきである。
・パーソナルデータは、その重要性、要配慮性に応じて適切な保護がなされなければならない。
4.セキュリティ確保の原則
社会は、常にベネフィットとリスクのバランスに留意し、
全体として社会の安全性及び持続可能性が向上するように務めなければならない。

・社会は、AIの利用におけるリスクの研究等、AIに関わる層の厚い研究開発を推進し、
サイバーセキュリティの確保を含むリスク管理のための取組を進めなければならない。
・社会は、特に、単一あるいは少数の特定AIに一義的に依存してはならない。
5.公正競走確保の原則
新たなビジネス、サービスを創出し、持続的な経済成長の維持と社会課題の解決策が提示されるよう、
公正な競争環境が維持されなければならない。

・特定の国や企業にAIに関する資源が集中した場合においても、
その支配的な地位を利用した不当なデータの収集や主権の侵害、不公正な競争が行われる社会であってはならない。
・AIの利用によって、富や社会に対する影響力が一部のステークホルダーに不当過剰に偏る社会であってはならない。
6.公平性、説明責任及び透明性の原則
人々が不当な差別を受けたり、人間の尊厳に照らして不当な扱いを受けたりすることがないように、
公平性及び透明性のある意思決定とその結果に対する説明責任が適切に確保されると共に、
技術に対する信頼性が担保される必要がある。

・AIの設計思想の下において、人々が多様なバックグラウンドを理由に不当な差別をされることなく、
全ての人々が公平に扱われなければならない。
・AIを利用しているという事実、AI に利用されるデータの取得方法や使用方法、
AIの動作結果の適切性を担保する仕組みなど、用途や状況に応じた適切な説明が得られなければならない。
・人々がAIの提案を理解して判断するために、AIの利用、採用、運用について、
必要に応じて開かれた対話の場が適切に持たれなければならない。
・AIを安心して社会で利活用するため、
AIとそれを支えるデータないしアルゴリズムの信頼性を確保する仕組みが構築されなければならない。
7.イノベーションの原則
継続的なイノベーションを目指すため、様々な垣根を越えて、幅広い知識、視点、発想等に基づき、
人材・研究 の両面から、徹底的な国際化・多様化と産学官民連携を推進するべきである。

・大学、研究機関、企業の間の対等な協業、連携や柔軟な人材の移動を促さなければならない。
・AI工学を確立するとともに、倫理的側面、経済的側面など
幅広い学問の確立及び発展が推進されなければならない。
・政府は、AI 技術の社会実装を促進するため、
あらゆる分野で阻害要因となっている規制の改革等を進めなければならない。

AI開発利用原則
短いので原文そのまま載せます。
具体的にこうしろというのはまだ決まっていないようです。
(私の理解不足かもしれませんが)

我々は、開発者及び事業者において、基本理念及び上記のAI社会原則を踏まえた
AI開発利用原則を定め、遵守するべきと考える。
AI開発利用原則については、現在、多くの国、団体、企業等において議論されていることから、
我々は早急にオープンな議論を通じて国際的なコンセンサスを醸成し、
非規制的で非拘束的な枠組みとして国際的に共有されることが重要であると考える。

人間中心ということで、
平等性やそのための教育、環境整備等のネタが中心だった気がします。
今後、
社会にAIが広く普及されていくことで生じるであろう課題に対する対策がメインなんですかね?

日本国政府 -AI利活用ガイドライン-

総務省・AIネットワーク社会推進会議が2019年に公表したAI倫理指針です。

上記した人間中心のAI社会原則とほとんど同じ中身な気がします。
ですので、大事そうな基本理念とAI利活用原則のみ要約し抜き出します。

基本理念
・人間がAI ネットワークと共生することにより、その恵沢がすべての人にあまねく享受され、
人間の尊厳と個人の自律が尊重される人間中心の社会を実現する。
・AIの利活用において利用者の多様性を尊重し、多様な背景と価値観、考え方を持つ人々を包摂する。
AIネットワーク化により様々な課題の解決を図り、持続可能な社会を実現する。
・AIネットワーク化による便益を増進するとともに、民主主義社会の価値を最大限尊重しつつ、
便益とリスクの適正なバランスを確保する。
・AIに関して有している能力や知識等に応じ、ステークホルダ間における適切な役割分担を実現する。
・AIの利活用の在り方について、非拘束的なソフトローたる指針やベストプラクティスを国際的に共有する。
・AIネットワーク化の進展等を踏まえ、国際的な議論を通じて、本ガイドラインを不断に見直し
必要に応じて柔軟に改定する。

短いのでそのまま引用します。
メンドクサカッタトカソウイウノジャナイヨ(;´д`)

AI利活用原則
1.適正利用の原則
利用者は、人間とAIシステムとの間及び利用者間における適切な役割分担のもと、
適正な範囲及び方法でAIシステム又はAIサービスを利用するよう努める。

2.適正学習の原則
利用者及びデータ提供者は、AIシステムの学習等に用いるデータの質に留意する。
3.連携の原則
AIサービスプロバイダ、ビジネス利用者及びデータ提供者は、
AIシステム又はAIサービス相互間の連携に留意する。
また、利用者は、AI システムがネットワーク化することによって
リスクが惹起・増幅される可能性があることに留意する。

4.安全の原則
利用者は、AIシステム又は AIサービスの利活用により、アクチュエータ等を通じて、
利用者及び第三者の生命・身体・財産に危害を及ぼすことがな いよう配慮する。

5.セキュリティの原則
利用者及びデータ提供者は、AIシステム又はAI サービスのセキュリティに留意する。
6.プライバシーの原則
利用者及びデータ提供者は、AIシステム又はAIサービスの利活用において、
他者又は自己のプライバシーが侵害されないよう配慮する。

7.尊厳・自律の原則
利用者は、AIシステム又はAI サービスの利活用において、人間の尊厳と個人の自律を尊重する。
8.公平性の原則
AIサービスプロバイダ、ビジネス利用者及びデータ提供者は、
AIシステム又はAI サービスの判断にバイアスが含まれる可能性があることに留意し、
また、AIシステム又はAIサービスの判断によって個人が不当に差別されないよう配慮する。

9.透明性の原則
AIサービスプロバイダ及びビジネス利用者は、AIシステム又はAIサービスの入出力等の検証可能性及び判断結果の説明可能性に留意する。
10.アカウンタビリティ原則
利用者は、ステークホルダに対しアカウンタビリティを果たすよう努める。

難しいカタカナが多い(°_°)
いまいち直感的に理解できませんでしたが、
共通箇所は多かった気がします。

日本国政府 -国際的な議論のためのAI開発ガイドライン案-

総務省・AIネットワーク社会推進会議が2017年に公表したAI倫理指針です。

基本理念
上記のAI利活用ガイドラインとほぼ同じなので省略します。

AI開発原則
大きく分けると3つの項目からなるようです。
小さく分けると9つの原則です。
ざっくりと大まかな部分のみ紹介します。

主にAIネットワーク化の健全な進展及びAIシステムの便益の増進に関する原則
1.連携の原則
開発者は、AIシステムの相互接続性と相互運用性に留意する。

主にAIシステムのリスクの抑制に関する原則
2.透明性の原則
開発者は、AIシステムの入出力の検証可能性及び判断結果の説明可能性に留意する。
3.制御可能性の原則
開発者は、AIシステムの制御可能性に留意する。
4.安全の原則
開発者は、AIシステムがアクチュエータ等を通じて
利用者及び第三者の生命、身体、財産に危害を及ぼすことがないよう配慮する。
5.セキュリティの原則
開発者は、AIシステムのセキュリティに留意する。
6.プライバシーの原則
開発者は、AIシステムにより利用者及び第三者のプライバシーが侵害されないよう配慮する。
7.倫理の原則
開発者は、AIシステムの開発において、人間の尊厳と個人の自律を尊重する。

主に利用者等の受容性の向上に関する原則
8.利用者支援の原則
開発者は、AIシステムが利用者を支援し、
利用者に選択の機会を適切に提供することが可能となるよう配慮する。
9.アカウンタビリティの原則
開発者は、利用者を含むステークホルダに対しアカウンタビリティを果たすよう努める。

細かい内容については、
共通箇所も多く繰り返しになってしまうので省略します。
アキチャッタワケジャナイヨ(;´д`)

人工知能学会 -人工知能学会 倫理指針-

日本の人工知能学会が立ち上げた倫理委員会によって、2017年に公表された倫理指針です。

文中には、
自らの社会における責任を自覚し、社会と対話するために、
人工知能学会会員の倫理的な価値判断の基礎となる倫理指針

とありました。
基本的には人工知能学会会員の行動指針として制定されたようです。

タイトルをそのままにして、以下に要約します。
元の文が短いのでほとんどそのままです。
また、人工知能はAIと置き換えました。

1.人類への貢献
人類の平和、安全、福祉、公共の利益に貢献し、
基本的人権と尊厳を守り、文化の多様性を尊重する。
AIを設計、開発、運用する際には人類の安全への脅威を排除するように努める。
2.法規制の厳守
研究開発に関わる法規制、知的 財産、他者との契約や合意を尊重する。
他者の情報や財産の侵害や損失といった危害を加えてはならず、
直接的のみならず間接的にも 他者に危害を加えるような意図をもってAIを利用しない。
3.他者のプライバシーの尊重
AI利用および開発において、他者のプライバシーを尊重し、
関連する法規に則って個人情報の適正な取扱いを行う。
4.公正性
AI開発と利用において常に公正さを持ち、
AIが人間社会において不公平や格差をもたらす可能性があることを認識し、
開発にあたって差別を行わないよう留意する。
人類が公平、平等にAIを利用できるように努める。
5.安全性
AIの安全性及びその制御における責任を認識し、
AI開発と利用において常に安全性と制御可能性、機密性について留意し、
同時にAI利用者に対し適切な情報提供と注意喚起を行うように努める。
6.誠実な振る舞い
AIが社会へ与える影響が大きいことを認識し、
社会に対して誠実に信頼されるように振る舞う。
虚偽や不明瞭な主張を行わず、技術的限界や問題点について科学的に真摯に説明を行う。
7.社会に対する責任
研究開発を行ったAIがもたらす結果について検証し、
潜在的な危険性については社会に対して警鐘を鳴らさなければならない。
意図に反して研究開発が他者に危害を加える用途に利用される可能性があることを認識し、
悪用されることを防止する措置を講じるように努める。
また、同時にAIが悪用されることを発見した者や告発した者が不利益を被るようなことがないように努める。
8.社会との対話と自己研鑽
AIに関する社会的な理解が深まるよう努める。
社会に様々な声があることを理解し、社会から真摯に学び、理解を深め、
社会との不断の対話を通じて専門家として人間社会の平和と幸福に貢献する。
高度な専門家として絶え間ない自己研鑽に努め自己の能力の向上を行うと同時にそれを望む者を支援する。
9.人工知能への倫理厳守の要請
AIが社会の構成員またはそれに準じるものとなるためには、
上に定めた人工知能学会員と同等に倫理指針を遵守できなければならない。

個人的には、
AI自体に対しても倫理指針の厳守を規定しているのが印象的でした。
文全体からも人類社会への貢献性や研究開発の意欲が垣間見える気がします。
なんというか、人工知能学会の熱を感じました(・ω・`)

ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー
日本国のAI原則は、
私が調べた限りはだいたいこんな感じのようです。
もし他にもあれば、ぜひ教えてください!

②-β 海外や企業、NGO、学会の場合

The United States (Department of Defense)

アメリカ合衆国国防総省が2020年に公表したAI使用についての倫理原則です。
私なりに翻訳&要約した説明文を記載します。
あんまりうまくまとめられてないかもしれません(´-`).

The DOD’s AI ethical principles will build on the U.S. military’s existing ethics framework based on the U.S. Constitution, Title 10 of the U.S. Code, Law of War, existing international treaties and longstanding norms and values. While the existing framework provides a technology-neutral and enduring foundation for ethical behavior, the use of AI raises new ethical ambiguities and risks. The principles address these new challenges and ensure the responsible use of AI by the department.
国防総省のAI倫理原則は、合衆国憲法、合衆国法典第10編、戦争法、既存の国際条約、および長年の規範と価値観に基づいた米軍の既存の倫理フレームワークに基づいて構築される。既存のフレームワークは、倫理的行動のための技術中立で永続的な基盤を提供するが、AIの利用は新たな倫理的曖昧さとリスクを引き起こす。この原則は、こうした新たな課題に対処し、AIの責任ある利用を確保するものである。

1.Responsible;責任
適切なレベルの判断と注意を行い、AI機能の開発、展開、および使用に責任を持ち続ける。
2.Equitable;公平性
AI能力における意図しないバイアスを最小限に抑えるために慎重な措置を講じる。
3.Traceable;追跡可能性
AI能力は、透明で監査可能な方法論、データソース、設計手順と文書化を含む、AI能力に適用可能な技術、開発プロセス、運用方法について適切な理解を関係職員が持つように開発され、展開される。
4.Reliable;信頼性
AI能力は明白で明確に定義された役割を持ち、そのような能力の安全性、セキュリティ、および有効性は、役割の全てにおいてテストと保証の対象となる。
5.Governable;管理可能性
意図しない結果を検出して回避する能力と、意図しない動作を示す展開済みシステムを解除または非アクティブ化する能力を持ちながら、意図した機能を実行するAI機能を設計およびエンジニアリングする。

European Commission

欧州委員会が2021年に公表したAI規制です。
AIの利用に関する規制法案であり、指針とは異なって法的拘束力があるようです。
かなり長く、それっぽいところしか見ていないので解釈違いがあるかもしれません。
以下に、翻訳&要約したものを載せます。
大事そうなところだけ抜きだそうと心がけましたがうまくいったかは分かりません。

Proposal for a Regulation laying down harmonised rules on artificial intelligence
人工知能に関する調和された規則を定める規則の提案
The Commission is proposing the first ever legal framework on AI, which addresses the risks of AI and positions Europe to play a leading role globally.
欧州委員会は、AIのリスクに対処し、欧州が世界で主導的な役割を担うことを定め、AIに関する初の法的枠組みを提案している。

Detailed explanation of the specific provisions of the proposal
提案の具体的な規定の詳細な説明

SCOPE AND DEFINITIONS (TITLE I)
適用範囲及び定義 (第1章)

Title I defines the subject matter of the regulation and the scope of application of the new rules that cover the placing on the market, putting into service and use of AI systems. It also sets out the definitions used throughout the instrument. The definition of AI system in the legal framework aims to be as technology neutral and future proof as possible, taking into account the fast technological and market developments related to AI. In order to provide the needed legal certainty, Title I is complemented by Annex I, which contains a detailed list of approaches and techniques for the development of AI to be adapted by the Commission in line with new technological developments. Key participants across the AI value chain are also clearly defined such as providers and users of AI systems that cover both public and private operators to ensure a level playing field.
第I章では、規制の対象事項と、市場への投入、サービスの提供、およびAIシステムの使用を対象とする新しい規則の適用範囲と装置全体で使用される定義も示す。法的枠組みにおけるAIシステムの定義は、AIに関連する急速な技術と市場の発展を考慮して、可能な限り技術中立で将来の証明を目指すものであり、必要とされる法的確実性を提供するために、タイトルIは付属書Iで補完されている。付属書Iには、新しい技術の発展に合わせて欧州委員会が適応するAIの開発のためのアプローチと技術の詳細なリストが含まれている。また、公平な競争条件を確保するために、公的事業者と民間事業者の両方を対象とするAIシステムのプロバイダーやユーザーなど、AIバリューチェーン全体の主要な参加者も明確に定義されている。

PROHIBITED ARTIFICIAL INTELLIGENCE PRACTICES (TITLE II)

Title II establishes a list of prohibited AI. The regulation follows a risk-based approach, differentiating between uses of AI that create (i) an unacceptable risk, (ii) a high risk, and (iii) low or minimal risk. The list of prohibited practices in Title II comprises all those AI systems whose use is considered unacceptable as contravening Union values, for instance by violating fundamental rights. The prohibitions covers practices that have a significant potential to manipulate persons through subliminal techniques beyond their consciousness or exploit vulnerabilities of specific vulnerable groups such as children or persons with disabilities in order to materially distort their behaviour in a manner that is likely to cause them or another person psychological or physical harm. Other manipulative or exploitative practices affecting adults that might be facilitated by AI systems could be covered by the existing data protection, consumer protection and digital service legislation that guarantee that natural persons are properly informed and have free choice not to be subject to profiling or other practices that might affect their behaviour. The proposal also prohibits AI-based social scoring for general purposes done by public authorities. Finally, the use of ‘real time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement is also prohibited unless certain limited exceptions apply.
第II章では、禁止AIのリストを定めており、規制はリスクベースのアプローチに基づき(i)許容できないリスク、(ii) 高いリスク、(iii)低いリスクおよび最小限のリスクを生み出すAIの利用を区別している。第II章の禁止行為のリストは、例えば基本的権利を侵害するなど、EUの価値に反するものとして使用が容認されないすべてのAIシステムで構成されている。禁止事項は潜在的な技術を介して人を意識の範囲を超えて操作したり、子どもや障害者のような特定のグループの脆弱性を利用して、彼らや他人の心理的または身体的危害を引き起こす可能性のある方法で行動を実質的に歪める可能性のあるものを対象とする。AIシステムによって促進されるかもしれない、成人に影響を及ぼす操作的または搾取的行為は、既存のデータ保護法、消費者保護法、デジタルサービス法によってカバーされる可能性がある。これらの法は、個人が適切に情報を与えられ、プロファイリングや、彼らの行動に影響を与えることなく自由な選択ができることを保証するものである。この規制は公的機関が一般的な目的のために行うAIベースのソーシャルスコアリングも禁止している。最後に、法執行のため公共にアクセス可能な空間での「リアルタイム」な遠隔生体認証システムの使用も、制限つきの例外が適用されない限り、禁止されている。

全然要約できてないorz
世界初のAI使用に関する規則ということで、
きっちりと長々と書かれています。

このあたりで心が折れ、
日本語解説記事を探したところ、
有難いことに川嶋雄作氏による解説記事がありました!

かなり綺麗にまとめられているので私の解説は蛇足ですが、
以下に、引用し紹介します。

リスク分類は
私 (i)許容できないリスク、(ii) 高いリスク、(iii)低いリスクおよび最小限のリスク
川嶋氏 (i)受容できないリスク、(ii) ハイリスク、(iii)限定的リスク、最小限のリスク
となっています。

規制の対象となるAIの例
(i)受容できないリスク
禁止(5条)
1.サブリミナルな手法により人の行動を操作し、身体的・心理的損害を与えるAI
2.子どもや身体的・精神的な課題を抱える方の脆弱性を利用して人の行動を操作し、身体的・心理的損害を与えるAI
3.公的機関等による、行動や人格的特性をもとにその人をスコアリングするためのAI

原則禁止(特定の条件を満たせば使用可能)(5条)
4.公共空間において法執行のために遠隔で行われるリアルタイム生体認証のためのAI

(ii) ハイリスク
使用にあたっては定められた条件を満たす必要あり(8-15条)
1.医療機器など)すでに第三者による適合性審査を通過する必要があるAI商品やその商品の安全のための構成要素としてのAI
2.リアルタイムもしくは事後に行われる遠隔生体認証のためのAI
3.重要インフラストラクチャーの維持・運営における安全のための構成要素としてのAI
4.教育や職業訓練を受けるための機関を決定したり希望者を評価して合否判定を行うAI
5.仕事への採用、業務分担、業務評価を行うAI
6.重要なサービスへのアクセス(行政サービス、融資、緊急対応措置)を判断するAI
7.法の執行(犯罪・再犯リスク評価、うそ発見器などの感情状態検出、等)にかかるAI
8.移民、亡命、国境管理、などに使用されるAI
9.法律等を調査・解釈をすること等を通じて法務当局を支援するAI

(iii)限定的リスク
AIを使用している旨を通知する義務あり(52条)
1.人と対話を行うAI
2.感情を識別したり生体情報をもとに人を分類するAI
コンテンツがAIにより生成もしくは操作されている旨を通知する義務あり(52条)
3.Deep fake技術など、コンテンツ(画像・音声・動画)を生成したり操作するAI
(iii)最小限のリスク
使用にあたっての規制なし。ただし自主的な行動規範(Codes of Conduct)の策定は推奨される(69条)
1.上記分類に入らないその他のAI(例えばゲームに使用されるAIや迷惑メールを分類するAIなど)

Google -AI原則-

グーグル社によって2018年に公開されたAI原則です。
タイトルはそのままで私なりに翻訳&要約した説明文を記載します。

These are not theoretical concepts; they are concrete standards that will actively govern our research and product development and will impact our business decisions.
これらは理論的な概念ではなく、研究開発や製品開発を積極的に管理し、経営判断に影響を与える具体的な基準である。

1.Be socially beneficial;社会的な有益性
AI技術の開発と利用の可能性を検討する際には、広範な社会的、経済的要因を考慮し、
全体的に予想される利益が予想されるリスクとマイナス面を大幅に上回ると判断される場合に進める。
AIはまた、大規模なコンテンツの意味を理解する能力も強化する。
AIを活用した高品質で正確な情報の提供に努め、各国の文化・社会・法規範を尊重する。
そして、私たちの技術を非商業ベースでいつ利用可能にするかについて、思慮深く評価し続ける。
2.Avoid creating or reinforcing unfair bias;不公平なバイアスの防止
AIのアルゴリズムとデータセットは、不公正なバイアスを反映したり、補強したり、減らしたりすることができる。
特に、人種、民族、性別、国籍、所得、性的指向、能力及び政治的又は宗教的信念のような機微な特性に関連する人々に対する不当な影響を回避するよう努める。
3.Be built and tested for safety;安全性確保を念頭に置いた開発と試験
強力な安全およびセキュリティ対策を開発し、適用し続ける。
AIシステムは、適切な注意を払って設計し、AI安全性研究のベストプラクティスに従って開発し、適切な場合には、制約のある環境でAIテクノロジをテストし、導入後の動作を監視する。
4.Be accountable to people;人々への説明責任
フィードバック、適切な説明、アピールの機会を提供するAIシステムを設計し、
AI技術は、適切な人間の指示と制御の対象となります。
5.Incorporate privacy design principles;自社のプライバシー原則の適用
AI技術の開発と利用にプライバシーの原則を組み込みことで、通知及び同意の機会を与え、
プライバシー保護措置を伴うアーキテクチャを奨励し、
データの使用に関する適切な透明性及び管理を提供する。
6.Uphold high standards of scientific excellence;科学的卓越性の探究
AI技術は、重要な分野における科学研究と知識の新しい領域を開拓する可能性を秘めており、AIの開発を進める上で、高い水準の科学的卓越性を目指す。
科学的に厳密で学際的なアプローチを用いて、この分野における思慮深いリーダーシップを促進するために、さまざまな利害関係者と協力する。
また、より多くの人が有用なAIアプリケーションを開発できるような教材、ベストプラクティス、研究を公開することで、AIの知識を責任を持って共有する。
7.Be made available for uses that accord with these principles;基本理念に沿った利用への技術提供
多くのテクノロジーには複数の用途があり、潜在的に有害な、または悪用される可能性のあるアプリケーションの制限に取り組む。
AI技術の開発・展開にあたっては、以下の要素を考慮して利用可能性を評価する。
・主要な目的と用途
技術と応用の主要な目的と可能性のある用途の解決策が有害な用途とどの程度密接に関連しているか、または有害な用途にどの程度適合しているかを含む。
・自然と独自性
独自の技術を利用可能にするか、より一般的な技術を利用可能にするか。
・規模
このテクノロジーの使用が大きな影響を与えるかどうか。
・Googleの関与の性質
汎用ツールを提供するか、顧客にツールを統合するか、カスタム・ソリューションを開発するか。

Microsoft

マイクロソフト社で2018年?に公開された指針です。
なんと、丁寧に日本語の説明がありました。
以下、タイトルは記事のままで内容を私なりに要約しています。

AIによるソリューションの開発と展開の中核にあるべき基準

1.プライバシーとセキュリティ
個人情報がプライバシーの基準に合致して使用され、
悪用や盗難から保護されるよう保証する必要がある。
2.透明性
AIの判断基準の理解のために、システム機能の
背景情報、潜在的な偏見、エラー、予期せぬ結果を容易に特定できる必要がある。
3.公平性
病気の治療や雇用の判断においては、
同様の症状や技能に対して同じ判断を行う必要がある。
4.信頼性
AIシステムの展開における意思決定は人間が重要な役割を果たす必要がある。
5.多様性
不用意に人々を排除することになる潜在的障壁を予期した多様性のある設計規範によって、
広範な人間のニーズと体験に対応する必要がある。
6.説明責任
AIシステムを設計し、展開する人々はシステムの動作について
説明責任があり、説明責任の基準は各分野における体験と実務に基づいている必要がある。

Future of Life Institute

Future of Life InstituteというNGO(Non-governmental Organization;非政府組織)によって、
2017年に公表された指針です。
日本語で解説している記事がありました。
そのまま載せます。

世界中の人々が毎日使用する役に立つツールとして、すでに人工知能は利用されています。人工知能の開発が今後以下で示す原則に基づいて行われるならば、それは数十年さらに数世紀にわたる将来において、人々に役立ち豊かな暮らしをもたらしうるでしょう。

ASILOMAR AI PRINCIPLES;アシロマの原則

研究課題
1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。

2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。
・将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。
・人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。
・人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。
・人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。
3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。

4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。

5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。

倫理と価値
6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべきである。

7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。

8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。

9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。

10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。

11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。

12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。

13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。

14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。

15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。

16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。

17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。

18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。

長期的な課題
19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上限について強い仮定をおくことは避けるべきである。

20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。

21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。

22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。

23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。

署名リストは英語版にのみ載っているようです。
世界の名だたる研究者たちの名前が署名しています。

Institute of Electrical and Electronics Engineers

IEEE(アイ・トリプル・イー);米国電気電子学会による2017年に公表された指針です。
この辺で私のライフがゼロになったのでプレスリリースしか読んでいません。
IEEE Ethically Aligned Design(EDA)version1から2にかけてなにが追加されたのか、
EDA version2の項目(原文+翻訳)のみ載せます。
概要だけざらっと翻訳しまとめました。

内容はたぶん今度、いや、いつかきっとちゃんと読みます。

IEEE Ethically Aligned Design version 2
人間の幸福を自律的かつインテリジェントなシステムで優先するためのビジョンおよび行動倫理

この文書は、関連する複数の研究分野(機械学習、人工知能、インテリジェント・システム・エンジニアリング、ロボット工学など)に対応し、これらの技術の設計において倫理的な配慮を最も幅広く適用できる。EADv 2は、自律システムとインテリジェントシステムの倫理に関する最も包括的なクラウドソースの世界的な文書で、自律システムとインテリジェントシステムのための価値主導の倫理的に整合した設計を優先するための思考リーダーシップと行動のためのオープンプラットフォームを提供する。

1.General Principles;一般原則

2.Embedding Values into Autonomous Intelligent Systems;自律インテリジェントシステムへの価値の埋め込み

3.Methodologies to Guide Ethical Research and Design;倫理的研究と設計を導く方法論

4.Safety and Beneficence of Artificial General Intelligence (AGI)and Artificial Super Intelligence (ASI);人工知能 (AGI) と人工超知能 (ASI)の安全性と利便性

5.Personal Data and Individual Access Control;個人データとアクセス制御

6.Reframing Autonomous Weapons Systems;自律兵器システムの再構築

7.Economics/Humanitarian Issues;経済/人道問題

8.Law;法律

New Committees included in Ethically Aligned Design , Version 2
V 2への追加項目

9.Affective Computing;アフェクティブ(感情)コンピューティング

10.Policy;ポリシー

11.Classical Ethics in Autonomous and Intelligent Systems;自律知的システムにおける伝統的倫理

12.Mixed Reality;複合現実

13.Well-being;福祉

ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー

芳田千尋氏の論文
「AI倫理に関する現状(2019)」では、

欧米と日本の最も大きな違いは,自律型致死兵器(Lethal Autonomous Weapon Systems(LAWS))や汎用人工知能(Artificial General Intelligence以下AGI)に関するものである。
日本の指針等にはAGIについての明示的な項目が含まれておらず
「今後開発される多種多様なAIについても、学習等により自らの出力やプログラムを変化させる機能を有するものである場合には、(指針等の対象となるAIの定義に)含み得る」とするのみである。それに対し海外の指針等では、アロシマの原則が「長期的な課題」として「LAWSの軍拡競争は避けるべき」、「再帰的に自己改善もしくは自己複製を行える人工知能システム は,進歩や増殖が急進しうるため,安全管理を厳格化すべき」と記し,EADが「自律兵器の見直し」「汎用人工知能および人工超知能の安全性と恩恵」とする項目を置き,欧州委員会が「歴史的に前例のない水準の統制不能な軍備競争につながる可能性」があるとの倫理的懸念を表明しつつ、一方で「武力紛争下でLAWSが軍事行動に伴う子供の巻き添え被害を減らす可能性」を指摘し、結論を保留するなど、
AGIについて明示的な記載を行っている。

上記の引用は一部、私が書き換えてます。
原文 ①→私 アロシマの原則
原文 ④→私 EAD
原文 ⑤→私 欧州委員会

この点以外は、
日本と海外で注目している箇所は重複箇所も多かった気がします。
今回は欧州委員会のガイドラインやIBMなどその他企業の公表している倫理指針は省略しました。

そのうちやるかもしれませんが未定です。

一応リンクだけ貼っておきます。

本日はここまで -次回予告-

後半のライフ切れが目立ちますねw
重要な部分を飛ばしている気がしてならないです( ゚д゚)
ただ、なんとなく言わんとしていることや重要そうな単語は見つかった気がします。

初投稿ということで、
いまいちQiitaの使い方がわかっていません。

というか単純に見難いですよねすみません

今後の投稿につれて使い方を覚えていければいいな〜と思っています。

次回はAI倫理編の続きで、
AI倫理の課題と社会実装というテーマからまとめたいと思います。
もしくはAI倫理の変遷を時代や内容を絡めつつやりたいです(むずかしそうですが)

ここまで私の拙い文を読んでくださった皆様ありがとうございました!
翻訳や内容に間違い、書き方の訂正、指摘、コメント等あればぜひお願いします。

たたた

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0