2
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

AIは人間よりも富の分配に長けているようだ、との研究結果を表明

Last updated at Posted at 2022-12-06

この記事は sciencealert Blog の翻訳です。https://www.sciencealert.com/ai-could-be-be-better-at-distributing-wealth-experiment-suggests
QQ20221206180602.png
人工知能(AI)人が設計したシステムよりも普及率の高い富の分配方法を考案できることが、新たな研究で表明されました。

英国に拠点を置くAI企業DeepMindの研究チームによる今回の発見は、機械学習システムが物理学や生物学の複雑な問題を解くのに適しているだけでなく、公正で豊かな社会の実現という目標など、よりオープンな社会目標の実現にも貢献できる可能性を示しています。

もちろん、それは簡単なことではありません。人間の実際に望む有益な結果を出せる機械を作ること(AIの研究では「バリューアライメント」と呼ばれる)は、あらゆる物事、特に社会・経済・政治問題を解決するための最善の方法について、人々の意見が分かれることが多いという事実によって、複雑なものとなっているのです。

「価値観を一致するためのハードルの1つは、人間社会が複数の見解を認めており、AIが誰の好みに合わせるべきかを不明確にしていることです。」と、研究者は、第一著者のDeepMind研究科学者のラファエル・コスター氏が率いる新しい論文で説明しています。

「例えば、政治学者と経済学者は、どのメカニズムが私たちの社会を最も公平または効率的に機能させるかについて、しばしば対立しています。」QQ20221206174340.png
このギャップを埋めるため、研究者らは富の分配を行うエージェントを開発しました。このエージェントは、人々の交流(現実と仮想の両方)を学習データに組み込んでおり、実質的に、人間の好む(そして全体として仮に公平な)結果へとAIを導くものである。

AIは素晴らしい結果を出す一方で、放っておくと社会的に望ましいとは程遠い結論に達することもあります。人間のフィードバックは、ニューラルネットワークをより良い方向へ導くのに必要だとされます。

「AI研究において、人間に適したシステムを構築するためには、人間とエージェントが対話する新しい研究手法が必要であり、価値観の一致したAIを構築するために、人間から直接価値を学ぶ努力を増やす必要があるという認識が広がっています」と研究者は書いています。

AIエージェントによる富の分配

QQ20221206180419.png
研究チームのAIエージェント(「民主主義AIと呼ばれる)は、合計数千人の人間の参加者を対象とした実験で、公共財ゲームと呼ばれる投資運動を研究しました。このゲームでは、プレイヤーはさまざまな金額のお金を受け取り、そのお金を公共基金に寄付し、自分の投資レベルに応じたリターンを基金から引き出せるようになっています。

一連の異なるゲームスタイルにおいて、厳格な平等主義リバタリアンリベラルな平等主義という3つの伝統的な再分配パラダイムによってプレイヤーに富が再分配され、それぞれプレイヤーの投資に対して異なる報酬が与えられました。

また、深層強化学習を用いて開発されたHCRM人間中心の再配分メカニズム)と呼ばれる第4の方法は、人間のプレーヤーと人間の行動を模倣して設計されたバーチャルエージェント双方からのフィードバックデータを用いて検証されました。

その後の実験では、HCRMによるゲーム内の金銭の支払いは従来のどの再配分基準よりもプレイヤーに人気があり、また、投票ごとに少額の支払いを受けることで人気のあるシステムを作るインセンティブを与えられた人間の審判が設計した新しい再配分システムよりも人気があることが明らかになりました。

「AIは、初期の富の不均衡を是正し、フリーライダーを制裁し、多数決に成功する仕組みを発見しました。」と研究者は説明しています。

「私たちは、代表者を選出し、公共政策を決定し、法的判断を下すために、より広い人間社会で使用されている、合意を達成するための同じ民主的ツールを、価値調整のために利用することが可能であることを示しています。」

AIに潜めている問題

QQ20221206174940.png
研究者たちは、このシステムが多くの問題を提起していることを認識しています。主に、このAIにおける価値観の調整は民主的な決定を中心に行われるため、エージェントが実際に社会における不平等や偏見を悪化させる可能性がある(ただし、それが大多数の人々の投票で選ばれるほど人気がある場合)ことを意味しているのです。

また、信頼危機もあります。実験では、プレイヤーは自分たちがお金を払っている富の再分配モデルの背後にある正体を知りませんでした。人間ではなくAIを選ぶとわかっていて、同じように投票しただろうか?今のところ、それは不明です。

最後に、研究チームは、この研究は、社会で実際に富が再分配される方法を転覆させる急進的な技術的提案として解釈されるべきではなく、人間が今あるものより潜在的により良い解決策を設計するのに役立つ研究ツールである、と述べています。

「私たちの研究結果は、自律的なエージェントが人間の介入なしに政策を決定する「AI政府」の支持を意味するものではない」と著者らは書いています。

「私たちは民主主義AIを、潜在的に有益なメカニズムを設計するための研究手法であり、公共圏にAIを展開するためのレシピではないと捉えています。」

またほかのAI領域に興味を持っている方に、VanceAIというAI画像編集ツールをおすすめします。

2
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?