LoginSignup
0
0

More than 3 years have passed since last update.

勉強のために AI倫理編vol.1.1 (要点のみ)

Posted at

前回の反省

AI倫理の課題と社会実装についてやる前に、
前回の投稿記事をまじまじと見返しました。

やはり長々と書いてありとても見難いので、
要点(タイトル等)のみまとめました。

問題を見てみると、
とりあえずG検定においては、
まず大事そうな単語がわかる方がいい気がしました。
関連ワード検索に使えたらいいなと思っています(´・ω・`)

日本国政府

-人間中心のAI社会原則-
内閣府、AI戦略実行会議が2019年に公表
・人間の尊厳が尊重される社会(Dignity)
・多様な背景を持つ人々が多様な幸せを追求できる社会(Diversity & Inclusion)
・持続性ある社会(Sustainability)

AI-Readyな社会
社会全体がAIによる便益を最大限に享受するために必要な変革が行われ、
AIの恩恵を享受している、または、必要な時に直ちにAIを導入しその恩恵を得られる状態

AI社会原則
1.人間中心の原則
2.教育・リテラシーの原則
3.プライバシー確保の原則
4.セキュリティ確保の原則
5.公正競走確保の原則
6.公平性、説明責任及び透明性の原則
7.イノベーションの原則
AI開発利用原則

-AI利活用ガイドライン-
総務省・AIネットワーク社会推進会議が2019年に公表

・人間がAI ネットワークと共生することにより、その恵沢がすべての人にあまねく享受され、人間の尊厳と個人の自律が尊重される人間中心の社会を実現する。
・AIの利活用において利用者の多様性を尊重し、多様な背景と価値観、考え方を持つ人々を包摂する。
・AIネットワーク化により様々な課題の解決を図り、持続可能な社会を実現する。
・AIネットワーク化による便益を増進するとともに、民主主義社会の価値を最大限尊重しつつ、便益とリスクの適正なバランスを確保する。
・AIに関して有している能力や知識等に応じ、ステークホルダ間における適切な役割分担を実現する。
・AIの利活用の在り方について、非拘束的なソフトローたる指針やベストプラクティスを国際的に共有する。
・AIネットワーク化の進展等を踏まえ、国際的な議論を通じて、本ガイドラインを不断に見直し、必要に応じて柔軟に改定する。

AI利活用原則
1.適正利用の原則
2.適正学習の原則
3.連携の原則
4.安全の原則
5.セキュリティの原則
6.プライバシーの原則
7.尊厳・自律の原則
8.公平性の原則
9.透明性の原則
10.アカウンタビリティ原則

-国際的な議論のためのAI開発ガイドライン案-
総務省・AIネットワーク社会推進会議が2017年に公表

AI開発原則
主にAIネットワーク化の健全な進展及びAIシステムの便益の増進に関する原則
1.連携の原則
主にAIシステムのリスクの抑制に関する原則
2.透明性の原則
3.制御可能性の原則
4.安全の原則
5.セキュリティの原則
6.プライバシーの原則
7.倫理の原則
主に利用者等の受容性の向上に関する原則
8.利用者支援の原則
9.アカウンタビリティの原則

日本人工知能学会

-人工知能学会 倫理指針-
日本の人工知能学会が立ち上げた倫理委員会によって、2017年に公表

自らの社会における責任を自覚し、社会と対話するために、
人工知能学会会員の倫理的な価値判断の基礎となる倫理指針

1.人類への貢献
2.法規制の厳守
3.他者のプライバシーの尊重
4.公正性
5.安全性
6.誠実な振る舞い
7.社会に対する責任
8.社会との対話と自己研鑽
9.人工知能への倫理厳守の要請

The United States

Department of Defense;アメリカ合衆国国防総省が2020年に公表

1.Responsible;責任
2.Equitable;公平性
3.Traceable;追跡可能性
4.Reliable;信頼性
5.Governable;管理可能性

European Commission

欧州委員会が2021年に公表したAI規制
AIの利用に関する規制法案であり、指針とは異なって法的拘束力がある

川嶋雄作氏の記事を引用させていただきました。

規制の対象となるAIの例
(i)受容できないリスク
禁止(5条)
1.サブリミナルな手法により人の行動を操作し、身体的・心理的損害を与えるAI
2.子どもや身体的・精神的な課題を抱える方の脆弱性を利用して人の行動を操作し、身体的・心理的損害を与えるAI
3.公的機関等による、行動や人格的特性をもとにその人をスコアリングするためのAI
原則禁止(特定の条件を満たせば使用可能)(5条)
4.公共空間において法執行のために遠隔で行われるリアルタイム生体認証のためのAI
(ii) ハイリスク
使用にあたっては定められた条件を満たす必要あり(8-15条)
1.医療機器など)すでに第三者による適合性審査を通過する必要があるAI商品やその商品の安全のための構成要素としてのAI
2.リアルタイムもしくは事後に行われる遠隔生体認証のためのAI
3.重要インフラストラクチャーの維持・運営における安全のための構成要素としてのAI
4.教育や職業訓練を受けるための機関を決定したり希望者を評価して合否判定を行うAI
5.仕事への採用、業務分担、業務評価を行うAI
6.重要なサービスへのアクセス(行政サービス、融資、緊急対応措置)を判断するAI
7.法の執行(犯罪・再犯リスク評価、うそ発見器などの感情状態検出、等)にかかるAI
8.移民、亡命、国境管理、などに使用されるAI
9.法律等を調査・解釈をすること等を通じて法務当局を支援するAI
(iii)限定的リスク
AIを使用している旨を通知する義務あり(52条)
1.人と対話を行うAI
2.感情を識別したり生体情報をもとに人を分類するAI
コンテンツがAIにより生成もしくは操作されている旨を通知する義務あり(52条)
3.Deep fake技術など、コンテンツ(画像・音声・動画)を生成したり操作するAI
(iii)最小限のリスク
使用にあたっての規制なし。ただし自主的な行動規範(Codes of Conduct)の策定は推奨される(69条)
1.上記分類に入らないその他のAI(例えばゲームに使用されるAIや迷惑メールを分類するAIなど)

Google

-AI原則-
グーグル社によって2018年に公開

1.Be socially beneficial;社会的な有益性
2.Avoid creating or reinforcing unfair bias;不公平なバイアスの防止
3.Be built and tested for safety;安全性確保を念頭に置いた開発と試験
4.Be accountable to people;人々への説明責任
5.Incorporate privacy design principles;自社のプライバシー原則の適用
6.Uphold high standards of scientific excellence;科学的卓越性の探究
7.Be made available for uses that accord with these principles;基本理念に沿った利用への技術提供

Microsoft

マイクロソフト社で2018年?に公開

AIによるソリューションの開発と展開の中核にあるべき基準
1.プライバシーとセキュリティ
2.透明性
3.公平性
4.信頼性
5.多様性
6.説明責任

Future of Life Institute

Future of Life Instituteによって2017年に公表

-ASILOMAR AI PRINCIPLES;アシロマの原則-
研究課題
1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。
2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。
・将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。
・人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。
・人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。
・人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。
3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。
4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。
5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。
倫理と価値
6) 安全性
7) 障害の透明性
8) 司法の透明性
9) 責任
10) 価値観の調和
11) 人間の価値観
12) 個人のプライバシー
13) 自由とプライバシー
14) 利益の共有
15) 繁栄の共有
16) 人間による制御
17) 非破壊
18) 人工知能軍拡競争
19) 能力に対する警戒
20) 重要性
21) リスク
22) 再帰的に自己改善する人工知能
23) 公益

Institute of Electrical and Electronics Engineers

IEEE(アイ・トリプル・イー);米国電気電子学会による2017年に公表

-IEEE Ethically Aligned Design version 2-
人間の幸福を自律的かつインテリジェントなシステムで優先するためのビジョンおよび行動倫理
1.General Principles;一般原則
2.Embedding Values into Autonomous Intelligent Systems;自律インテリジェントシステムへの価値の埋め込み
3.Methodologies to Guide Ethical Research and Design;倫理的研究と設計を導く方法論
4.Safety and Beneficence of Artificial General Intelligence (AGI)and Artificial Super Intelligence (ASI);人工知能 (AGI) と人工超知能 (ASI)の安全性と利便性
5.Personal Data and Individual Access Control;個人データとアクセス制御
6.Reframing Autonomous Weapons Systems;自律兵器システムの再構築
7.Economics/Humanitarian Issues;経済/人道問題
8.Law;法律
9.Affective Computing;アフェクティブ(感情)コンピューティング
10.Policy;ポリシー
11.Classical Ethics in Autonomous and Intelligent Systems;自律知的システムにおける伝統的倫理
12.Mixed Reality;複合現実
13.Well-being;福祉

今回はここまで -次回予告-

前回の記事、
いろんなことを詰め込みすぎてやたら長くなってしまってました。

ぼんやりとした体系理解、というか
網羅的な内容をざらっとみる、という感じで
我ながらあの記事勉強しにくいです。

とりあえず今回は要点だけ抜き出したので
次回はAI倫理の課題と社会実装というテーマで、
具体的なAI倫理について迫れればいいな〜と思っています。

投稿しちゃった記事は追々改良していければいいなと思ってます!

たたた

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0