はじめに
自身の研究テーマとも関連している「センシティブ属性を得るのが難しい状況での公平な学習」についての日本語資料が少なかったため,自分が色々サーベイした結果をまとめることにしました.機械学習における公平性についても簡単にまとめていますが,詳細な解説については他の資料を参考にしてください.
機械学習における公平性
近年,機械学習による意思決定が企業における採用やローン審査等の重要な場面で用いられるようになりました.その一方で,機械学習による意思決定が特定の集団に対して不公平となるような問題が指摘されています.例として,アメリカの一部州では囚人の再犯リスク推定アルゴリズムCOMPASが使用されたが,人種によって再犯リスクの偽陽性・偽陰性率に格差があることが指摘されて問題となりました(白人の偽陰性率が高く,黒人の偽陽性率が高い)[1].
これに対して,White House Report[2]では「アルゴリズムによる潜在的差別を監視しなければならない」と記されており,Title VIIでは人種や性別等によって雇用差別を禁止しています.このような背景があるため,機械学習においても公平性というものが重要視されています.
既存の公平性研究の限界
通常の公平な機械学習の研究では,公平性を定義して,その定義を満たすようなモデルを作成することを目的としています.機械学習における公平性の定義は「集団公平性」と「個人公平性」2つに大別されますが,本稿では集団公平性に焦点を当てています.集団公平性では「センシティブ属性」で条件づけられる集団を平等に扱うことを目的としています.ここでセンシティブ属性とはその属性で判断してほしくない情報のことを指し,一般的には性別や人種等が用いられます.すなわち集団公平性とは男性・女性や黒人・白人を平等に扱うことを指します.
集団公平性の代表的な定義としては,「Demographic parity(DP)[3]」と「Equlized odds(EO)[4]」があります.モデルの予測を$\hat{y}$とすると,任意のセンシティブ属性$a,a'$とターゲットラベル$y$について,DPとEOはそれぞれ以下のように表せます.
DP: \mathbb{P}[\hat{y}|A=a]=\mathbb{P}[\hat{y}|A=a']\\
EO: \mathbb{P}[\hat{y}|A=a,Y=y]=\mathbb{P}[\hat{y}|A=a',Y=y]
DPはセンシティブ属性とモデルの予測が独立であるときに達成されて,EOはターゲットラベルの条件下でセンシティブ属性とモデルの予測が独立であるときに達成されます.
DP,EOのような公平性定義を達成するための既存手法の多くは,センシティブ属性を用いることを前提としています.なぜならば,上記のような公平性定義に基づいた公平性指標について最適化を行うため,センシティブ属性で条件づけられる集団が既知である必要があるからです.
(例:分類問題を公平性制約付きの最適化問題として解く場合,センシティブ属性と予測が独立であるといった公平性制約を計算するのにセンシティブ属性が必要となる.)
問題点
しかし,センシティブ属性にプライバシーに関する情報(例:人種,性別)を用いる場合には法律や規制等によって取得が制限されることが考えられます.例えば,EUで施行されたEU一般データ保護規則では,個人情報を取得する際には本人からの同意取得や自身の個人データの削除要求が可能であるなど,個人情報保護について厳しく定められています.実際に,GoogleがユーザがWebページにアクセスした際に,ユーザの同意なしにCookieを取得し,一部を広告を目的に使用して利益を上げていることが指摘されて多額の制裁金が課されました.また近年の機械学習では大量のデータを使うことが当たり前となっているため,アノテーションコストが高いことも問題の1つと考えています.
このような問題点を考慮すると,既存のセンシティブ属性を学習・推論に用いるような公平性手法をそのまま現実のアプリケーションに適用することが難しいことがわかります.
センシティブ属性を用いない公平性研究
このような問題に触発されて,センシティブ属性を用いない公平性研究というものが盛んになっています.ここではいくつかの論文を簡単に紹介します.
Proxy Fairness [5]
この手法では,真のセンシティブ属性ではなく,センシティブ属性の代理となる属性に対して公平性を改善することを目的としています.センシティブ属性と意味的に類似した代理属性だけでなく,意味的に関連の低い代理属性を用いても,真のセンシティブ属性に対する公平性が改善するという興味深い結果が示されています.一方,不十分な代理属性を選択すると分類器の性能を低下させ,公平性を損なう可能性にも言及しています.また代理特徴のラベル付けは必要となるため,アノテーションコストの問題は解決されません.
Towards Fair Classifiers Without Sensitive Attributes: Exploring Biases in Related Features[6]
この手法では学習データ中に存在するセンシティブ属性と高い相関を持つ非センシティブ特徴を利用することで,公平なモデルの獲得を目指します.具体的には,このようなセンシティブ属性と相関の高い特徴とモデルの相関を最小化するように学習をおこなっている.また各特徴がモデルの精度と公平性に寄与する重要度の重みを動的に学習することができます.
(表データのような特徴が複数ある設定でしか使えない?)
Fairness without Demographics through Adversarially Reweighted Learning [7]
この手法はRawlsian Max-Min Fairness(RMF)という公平性定義に従っています(センシティブ属性を用いない公平性研究ではよく用いられている印象).Rawlsian Max-Min Fairnessはセンシティブ属性で条件づけられた集団のうち,最も性能が悪い集団の性能を最大化することを目的としています.Computational-identifiabilityという概念を活用し,分類精度を最大化したい学習者と損失の大きい領域に期待損失を最大とするような重みを割り当てる敵対者を交互に学習することで,RFMを満たすモデルを獲得します.
Self-Supervised Fair Representation Learning without Demographics [8]
TBD
Fairness without Demographics through Knowledge Distillation [9]
この手法ではDebiased Learningを活用している.Debiased Learningでは真の相関ではなく見かけの相関を学習するのを防ぐことを目的としている.一般的な手法は重み付けであり,そのうちで最も単純な手法はone-hotラベルの代わりにソフトラベルを用いることだが,現実世界でソフトラベルを得るのは困難です.そこで,知識蒸留を活用し,教師モデルのロジットを生徒モデルの正解ラベルとして学習することで,予測のバイアスを軽減することを目指しています.またソフトラベルに対して,線形ラベリングやソフトマックスラベリンス等の適切なラベルスムージングが公平性向上に有効であることを実験的に示していまs.
この論文ではRMFを対象とした手法ではDPやEOといった手段公平性定義の達成には適していないとの主張もされている.
順次追加予定
おわりに
本記事では機械学習における公平性研究の概要と問題点,解決するための手法をいくつか解説しました.現在,様々な場面で用いられている機械学習ですが,このような問題を抱えているということを知ってもらうきっかけになればなと思います.ここまで読んでいただきありがとうございました!
参考文献
[1] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
[2] https://obamawhitehouse.archives.gov/sites/default/files/docs/20150204_Big_Data_Seizing_Opportunities_Preserving_Values_Memo.pdf
[3] https://papers.nips.cc/paper/2017/file/a486cd07e4ac3d270571622f4f316ec5-Paper.pdf
[4] https://papers.nips.cc/paper/2016/file/9d2682367c3935defcb1f9e247a97c0d-Paper.pdf
[5] https://arxiv.org/abs/1806.11212
[6] https://arxiv.org/abs/2104.14537
[7] https://proceedings.neurips.cc/paper/2020/file/07fc15c9d169ee48573edd749d25945d-Paper.pdf
[8] https://openreview.net/pdf?id=7TGpLKADODE
[9] https://openreview.net/forum?id=8gjwWnN5pfy