1 日 1 回 論文の Abstract を DeepL 翻訳の力を借りて読んでいきます.
この記事は自分用のメモみたいなものです.
ほぼ DeepL 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.
翻訳元
NLNL: Negative Learning for Noisy Labels
Abstract
訳文
畳み込みニューラルネットワーク (CNNs)は, 画像分類に用いると優れた性能を発揮する. 従来の CNNs の学習方法は, "入力画像はこのラベルに属する" (正の学習 (Positive Learning); PL) のように, 教師付きの方法で画像にラベルを付ける方法であり, ラベルがすべての画像に正しく割り当てられていれば, 高速かつ正確な学習が可能である. しかし, 不正確なラベルやノイズの多いラベルが存在する場合, PL を用いた学習は間違った情報を提供してしまい, 性能を著しく低下させる. この問題に対処するために, 我々は負の学習 (Negative Learning) (NL) と呼ばれる間接的な学習方法から始める.NL は補ラベルとして真のラベルを選択する可能性が低いため, 誤った情報を提供するリスクを減らす. さらに, 収束性を向上させるために, PL を選択的に採用することで手法を拡張する. PL を選択的に用いることで, NL の進行に伴ってその選択が可能となり, ノイズの多いデータのフィルタリングに優れた性能を発揮する. 簡単な半教師付き学習手法を用いて, ノイズデータの分類に対して最先端の精度を達成し, SelNLPL のノイズデータフィルタリング能力の優位性を証明した.
原文
Convolutional Neural Networks (CNNs) provide excellent performance when used for image classification. The classical method of training CNNs is by labeling images in a supervised manner as in "input image belongs to this label" (Positive Learning; PL), which is a fast and accurate method if the labels are assigned correctly to all images. However, if inaccurate labels, or noisy labels, exist, training with PL will provide wrong information, thus severely degrading performance. To address this issue, we start with an indirect learning method called Negative Learning (NL), in which the CNNs are trained using a complementary label as in "input image does not belong to this complementary label." Because the chances of selecting a true label as a complementary label are low, NL decreases the risk of providing incorrect information. Furthermore, to improve convergence, we extend our method by adopting PL selectively, termed as Selective Negative Learning and Positive Learning (SelNLPL). PL is used selectively to train upon expected-to-be-clean data, whose choices become possible as NL progresses, thus resulting in superior performance of filtering out noisy data. With simple semi-supervised training technique, our method achieves state-of-the-art accuracy for noisy data classification, proving the superiority of SelNLPL's noisy data filtering ability.