この記事は社会学の視点で話される責任ある AI をまとめつつ、少しだけ技術に足を踏み入れる内容になっており、技術要素は少なめです。
また、本内容は個人の見解であり、所属組織の意向とは全く関係がないことを留意してください。
目次
はじめに
はじめまして、日本マイクロソフトで Cloud Solution Architect としてインターンをしている髙島と申します。普段は北陸先端科学技術大学院大学(JAIST)、ReaLearn Lab で Trustworthy AI 分野の研究しております。
昨今の AI 技術の急速な発展に伴い、『責任ある AI 』という概念が注目を集めていますが、この言葉の具体的な意味やその背景、実践方法については深くまで触れられることが少なく、いざ人に説明しようとするとうまく言葉が出てこないことが多々あるのではないかと思います。
本記事では、マイクロソフトが掲げる『責任ある AI の標準』を深掘りし、マイクロソフトの取り組み例を紹介するとともに、技術的な背景を交えて説明します。
本記事は「少々」長い構成になっていますので、気になる項目だけ読んでいただければと思います。
責任ある AI とは何か
まず一言で責任ある AI とは何かを表すと、安心して使える AI システムを作るための方針とアプローチといったところでしょうか。今後、AI 技術の開発や利用する立場において、倫理的な原則を遵守し、社会的な影響を考慮しながら進めていくための心構えのような概念と実践です。これにより、AI がもたらす利益を最大化しつつ、潜在的なリスクや社会的な悪影響を最小限に抑えることを目指しています。
一昔前から説明可能な AI をはじめとし、信頼できる AIなど表現が複数存在しますが、どれもこの責任ある AI の概念から派生したものと捉えることができます。
これまでの AI の問題点と技術的背景
責任ある AI が求められる背景には、従来の AI 開発や利用において以下のような問題点が指摘されてきたことがあります。
データの偏りによる公平性の欠如
すべての訓練データは人間によって生み出されます。そのデータに含まれる社会的偏見や歴史的不平等が、AI の判断に反映されてしまう問題です。特にこれは大規模なデータセットを扱うにあたって顕著になってきました。例えば、LLM はモデルの構造故に確率的にしか情報を捉えることができないため、単純にデータ数の不均衡だけでもモデルの公平性は保たれなくなります。
具体例1:黒人女性の顔が女性として認識されない問題
具体例2:顔認識システムにおける人種バイアス
具体例3:2016 年に ProPublica が報告した件では、米国の刑事司法システムで使用されていた再犯予測 AI が、人種によって偏った判断を下していたことが明らかになった問題
ブラックボックスによる説明可能性の欠如
LLM を含む多くの AI がニューラルネットワークモデルであるが故に、決定プロセスが不透明で、その判断根拠を人間が理解・説明できない問題です。
不透明とは、AI の内部情報が全て浮動小数点数であり人間には理解が困難な状態のことを指します。アルゴリズムの観点では、出力がどの計算式を通って出力されたか完全に透明であるため、区別が必要です。
具体例:LLM に基づいた医療 AI に対して、診断結果を出力したかの過程を解釈することはできないことにより、適切に AI の出力を扱えない問題
プライバシーとデータセキュリティの懸念
AI はデータの上に成り立ちます。そのため、そのデータの出どころ、個人情報の取り扱いや、データ漏洩のリスクに関する問題です。(みなさんも自分の顔データを勝手に誰かに使われたりしたら嫌ですよね...?)
具体例1:SNS 等にアップロードされた顔写真を検索可能にするサービスでプライバシーを侵害
具体例2:5000 万人以上のユーザーデータが不正に収集され、政治的な目的で使用された問題
信頼性と安全性の課題
先ほども少し述べましたが、AI は学習したデータに基づいて確率的に推論を行います。そのため、学習データに含まれないパターンが入力された場合の動作を予期できない不確実性や、AI が悪意のあるデータを用いて悪用されるリスクに関する問題です。
具体例1:
具体例2:システムがトラックを空と誤認識し、適切な回避行動を取れなかったことが原因で起きた自動運転車の事故
マイクロソフトの『責任ある AI の標準』
)
マイクロソフトは、これらの問題に対応するため、以下の 6 つの原則を「責任ある AI」の標準として掲げています:
- 公平性(Fairness)
- 信頼性と安全性(Reliability and Safety)
- プライバシーとセキュリティ(Privacy and Security)
- 包摂性(Inclusiveness)
- 透明性(Transparency)
- 説明責任(Accountability)
マイクロソフトが掲げているとは言えど、これは社会全般にも同様にいえる重要な 6 項目です。
ここからは、マイクロソフトがそれぞれの項目でどのような取り組みを行っているのかを説明していきます。
マイクロソフトの責任あるAIへの取り組み例
1. 公平性(Fairness)の実現
マイクロソフトは、Fairlearn という AI モデルによって悪影響を受けるグループを評価するための指標および、様々な公平性の定義に沿って AI タスクの不公平性を軽減するためのアルゴリズムの二つのコンポーネントが含まれている Python パッケージを OSS として開発しています(こちらの GitHub ページから見られます)。
1.2. Fairlearn の主な特徴
AI システムの開発・展開時に、その開発者の社会的なバイアスがモデルに悪影響を及ぼしている場合やデータそのものの特性として AI が不公平な行動をとる場合があるなかで、Fairlearn は性別などの特定の特徴がモデルの出力に影響を及ぼすのかをダッシュボードに出力することで確認することができます。
さらに、特定のグループに不公平な動作が見られた場合は、それを軽減するための学習法を提供します。以下の Web サイトからは、国税調査データを用いた年収に関する予測モデルが、性別により不公平な予測を行っていることを明らかにし、GridSearch という手法を用いて、精度を落とさずに公平性を高めるように再度学習しなおす例が示されています。
※ 具体的な公平性の指標や Fairlearn を用いた実装等の情報は Fairlearn 公式サイトから確認できます。
また、Python のライブラリであることから、Azure Machine Learning に統合することができるため、既存のモデル構築フローに組み込めるところもいいところですね。
最後に、マイクロソフトは組織として、実際に AI システムを使用する(から影響を受ける)エンドユーザーのニーズに寄り添った AI システムの公平性チェックリストの設計も行っています。その AI 公平性チェックリストはこちらから確認できます。
2. 信頼性と安全性(Reliability and Safety)の確保
これまでにも自動運転システムが前方にあるトラックを適切に識別できなかった事件のように、AI が今まで出会ったことのないデータに対してどのように振舞うのか全く予測することができません。特に、現実問題は非常に複雑で、そのすべてのパターンを事前に AI に学習させることは現実的に不可能です。
※論文『Discovering Blind Spots in Reinforcement Learning』から引用
そこで、マイクロソフトは、AI の一つである強化学習において、現実の環境において、どこが AI の「盲点」なのかを推測する手法を提案しました。
この研究によって AI モデルが持つ盲点を特定し、未知の環境において誤った判断をするリスクを軽減することを目指しています。このアプローチにより、AI の信頼性と安全性が向上し、現実世界における適用可能範囲がさらに広くなることが期待されています。
3. プライバシーとセキュリティ(Privacy and Security)の保護
3.1. プライバシーを保護して AI を使うには
AI を作るためにはデータが必要不可欠ですが、そのデータにあなたの個人情報が利用されることに快く首を振れますでしょうか?
AI が組み込まれたシステムは確かに有用ですが、利用に際して個人情報の入力を求められる「見返りが求められるシステム」は、プライバシーの侵害につながる可能性があります。
そこで、マイクロソフトは暗号化されたデータを用いて機械学習における計算を行う技術の研究・開発に取り組んでいます。
ホモモルフィック暗号化(Homomorphic encryption)は、暗号化と計算の順序を入れ替えることを可能にしており、暗号化してから計算しても、計算してから暗号化してもどちらも同じ結果が得られます。
ただし、実用性に課題があり、現在も研究が続けられています。
さらにマイクロソフトは、ホモモルフィック暗号化を利用するためのフレームワークである SEAL を OSS として提供しています。
こちらの記事では SEAL を用いた実装の雰囲気を知ることができます。
3.2. AI を攻撃から守るには
皆さんもうお気づきかもしれませんが、AI は万能ではありません。これまでに見たことがない入力に対して予測不能な挙動を示すだけでなく、人間にとって同じ入力でも異なる出力をすることがあります。有名な例では以下のようなものがあります。
左の画像に対する AI の出力はパンダですが、左の画像に真ん中の微小なノイズ画像(摂動)を足し合わせた右の画像に対しては、AI の出力がテナガザルに変わってしまいました。
このように、人間には知覚できないほどのノイズでも AI の出力はぶれることがあります。このような特定のノイズを意図的にデータセットに潜ませ AI システムを悪用する攻撃に対しての防御法に関してもマイクロソフトは研究を行っています。[論文]
マイクロソフトはその他にも様々な研究論文を発表しており、こちらから確認することができます。
4. 包摂性(Inclusiveness)の促進
マイクロソフトは、様々な背景を持つ人々が AI 技術の恩恵を受けられるよう、多言語対応や文化的配慮を含めた AI 開発を行っています。その中でも特に Azure AI に力を入れており、
- 音声の文字起こしとキャプション
- コンテンツリーダー
- 翻訳サービス
- 音声アシスタント
- 顔認識
- コンピュータビジョン
を含む様々なアクセシビリティソリューションを提供しています。それぞれの詳細なユースケースはこちらを参照してください。
このように、クラウドリソースの活用促進と アクセシビリティの向上により、さらに多くの方が AI を利用できるようになってきています。
しかし、より多くの方に AI を使ってもらうということは、想定すべき背景がさらに複雑になっていくことを意味します。その場合、AI の確率的な推論によってマイノリティが公平に扱われない問題を防ぐためにも、公平性実現と同時並行に取り組みを行う必要があります。
5. 透明性(Transparency)の確保
これまでの課題でもあったように、現存の AI はほとんどが完全なブラックボックスであるため、近年ではニューラルネットワークモデルに、シンボリック操作に基づいたアプローチを導入することで、システムの一部を透明化し、かつ論理性を担保する研究が行われています。
マイクロソフトでも、従来のシンボリック操作によるソフトウェアの脆弱性検出手法に単に LLM を組み合わせるのではなく、その二つを組み合わせることで、セマンティック情報をうまく活用したシンボリック操作の実行を実現しようと研究されています。[論文]
※ 論文『Poster: Enhancing Symbolic Execution with LLMs for Vulnerability Detection』から引用
シンボリック操作とは、命題論理のように「A ならば B」または、「尻尾が長いかつ、耳がついている、かつ... ならば猫」というような事前に定義されているもので、セマンティック情報とは、「ぶぶづけ食べますか?(京ことば)」の意味が「そろそろ帰ってほしい」という記号的な意味とは別にある情報のことを指します。
その他にも、AI が行った意思決定を理解するために、その AI がどのようなデータセットに基づいて学習されたのかを理解することも重要です。仮にデータセットに社会的バイアスがある場合、モデルは望ましくない意思決定をする可能性があり、司法や人事採用、インフラ、金融、医療といった高リスクな領域において深刻な事態をもたらしかねません。このような事態を防ぐために、世界経済フォーラムは、すべての機関に対して機械学習データセットの出所、作成、使用についてドキュメント化をすることを提案しています。マイクロソフトはそれに付随して、データセットに関するドキュメントの作成プロセスとして、動作特性、テスト結果、推奨使用法などを記載したデータシートの作成プロセス等のワークフローを提供しています。[paper]
6. 説明責任(Accountability)の徹底
AI のビジネス利用において、運用組織がインシデントに対する責任意識を持つことは AI リテラシーの観点から非常に重要です。
マイクロソフトは、責任ある AI の開発と展開に関する知見の共有、さらにはカスタマーの実践をサポートしています。その知見には、今回紹介している責任ある AI の標準の他にも、AI システムの及ぼしうる影響を評価するテンプレート Microsoft Responsible AI Inpact Assessment Template およびそのガイド、透明性ノート、Fairlearn 等の責任ある AI に関する詳細な実装についてのドキュメントが含まれます。
また、マイクロソフトのプラットフォームに展開する AI システムが責任ある AI の法的および規制上の要件を満たしていることを確認できるように、 AI 保証プログラムを作成しています。
また、Amazon Web Services(AWS)の場合、準拠法はアメリカ合衆国ワシントン州法、裁判地はアメリカ合衆国ワシントン州キング郡に所在する州裁判所または連邦裁判所となっている一方で、Azure は日本の法律を準拠法とし、管轄裁判所は東京地裁裁判所となっているため、エンタープライズのお客様が安心して利用できるようにサポートされています。
本題とはずれますが、AI を含むディジタル技術における倫理観念に関して、NEC フェローの今岡 仁さんが書かれた『デジタルエシックスで日本の変革を加速せよ 対話が導く本気のデジタル社会の実現』という本がおすすめです。
さいごに
マイクロソフトの「責任あるAI」への取り組みは、AI 技術がもたらす恩恵を最大化しつつ、潜在的なリスクを最小限に抑えることを目指しています。このアプローチは、単なる理念にとどまらず、具体的な技術開発や組織的な取り組みとして実践されています。今後、さらに少子高齢化が進む社会で、労働の効率化は急務です。AI 技術をより広く、深く社会に浸透させていくには、「責任ある AI」の概念はより重要性を増していきます。開発者、企業、そして利用者等の全てのステークホルダーが、AI の倫理的な研究開発と利用について理解を深め、責任意識をもって技術と向き合っていくことが求められます。同時に、技術の進歩に伴い新たに生じる課題に対しても、継続的に取り組んでいく必要があります。
マイクロソフトの取り組みは、AI 業界全体にとって重要なマイルストーンとなり得るものですが、責任ある AI の実現は一企業の努力だけでは達成できないものであるため、国際社会全体の協働が必要不可欠です。
さいごに、この記事が皆さんの責任ある AI への理解を少しでも深め、関心を持っていただくきっかけとなれれば幸いです。