この記事は自分用のメモみたいなものです.
ほぼ DeepL 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.
翻訳元
Deep Evidential Regression
Author: Alexander Amini, Wilko Schwarting, Ava Soleimany, Daniela Rus
前: 【6 Conclusions, limitations, and scope】
次:
Broader Impact
訳文
ニューラルネットワークの不確実性推定は, 社会に非常に大きな影響を与える. ニューラルネットワークは, ブラックボックス予測器として訓練され, 予測のエラーが下流のタスクに即時の脅威をもたらす可能性がある大規模な意思決定システムに配置されることが増えている. 特に, これらのシステムが自律走行車制御 [29], 医療診断 [43], あるいは犯罪予測 [24] や顔認識 [3] のような大規模なデータセットの不均衡やバイアスを伴う設定に配備されるようになると, このような状況下で較正された不確かさ推定のための体系的な手法が必要とされるようになる. この研究は, ニューラルネットワークの精度と精度の限界を絶えず押し広げている機械学習研究の大部分を補完するものである. 我々の手法は, 性能向上のために大規模なモデルを最適化するだけではなく, これらのモデルがどのようにして自身の信頼度を推定する能力を備えることができるかに焦点を当てている. ベースラインよりも優れたキャリブレーションを実証した結果は, これらのアルゴリズムに一定の信頼を置き, "わからない" と言われたときに理解できるようにするためにも非常に重要である. 機械学習における不確実性推定には明確かつ広範な利点があるが, 発生する可能性のある社会的課題を認識することも重要であると考えている. パフォーマンスと不確実性推定能力の向上に伴い, 人間は必然的にモデルの予測を信頼するようになるだけでなく, 危険な決定や不確実な決定を実行前にキャッチする能力が高まることになる. したがって, 間違いが独立して捕らえられ, 修正される可能性を高めるために, このような学習システムにおいて冗長性を追求し続けることが重要である.
原文
Uncertainty estimation for neural networks has very significant societal impact. Neural networks are increasingly being trained as black-box predictors and being placed in larger decision systems where errors in their predictions can pose immediate threat to downstream tasks. Systematic methods for calibrated uncertainty estimation under these conditions are needed, especially as these systems are deployed in safety critical domains, such for autonomous vehicle control [29], medical diagnosis [43], or in settings with large dataset imbalances and bias such as crime forecasting [24] and facial recognition [3]. This work is complementary to a large portion of machine learning research which is continually pushing the boundaries on neural network precision and accuracy. Instead of solely optimizing larger models for increased performance, our method focuses on how these models can be equipped with the ability to estimate their own confidence. Our results demonstrating superior calibration of our method over baselines are also critical in ensuring that we can place a certain level of trust in these algorithms and in understanding when they say “I don’t know”. While there are clear and broad benefits of uncertainty estimation in machine learning, we believe it is also important to recognize potential societal challenges that may arise. With increased performance and uncertainty estimation capabilities, humans will inevitably become increasingly trusting in a model’s predictions, as well as its ability to catch dangerous or uncertain decisions before they are executed. Thus, it is important to continue to pursue redundancy in such learning systems to increase the likelihood that mistakes can be caught and corrected independently.