1 日 1 回 (努力目標) 論文の Abstract を Google 翻訳の力を借りて読んでいきます.
この記事は自分用のメモみたいなものです.
ほぼ Google 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.
翻訳元
Label-Free Supervision of Neural Networks with Physics and Domain Knowledge
Abstract
訳文
多くの機械学習アプリケーションでは, ラベル付きデータは少なく, より多くのラベルを取得するのは高価です. 入出力ペアの直接的な例ではなく, 出力空間を保持する制約を指定することによる, 教師ありニューラルネットワークの新しいアプローチを紹介します. これらの制約は, 既知の物理法則などの事前のドメイン知識から導出されます. 私たちは, 実世界およびシミュレートされたコンピュータービジョンタスクに対するこのアプローチの有効性を実証します. 畳み込みニューラルネットワークをトレーニングして, ラベルの付いたサンプルなしでオブジェクトを検出および追跡できます. このアプローチは, ラベル付きトレーニングデータの必要性を大幅に削減できますが, 事前の知識を適切な損失関数にエンコードするための新たな課題をもたらします.
原文
In many machine learning applications, labeled data is scarce and obtaining more labels is expensive. We introduce a new approach to supervising neural networks by specifying constraints that should hold over the output space, rather than direct examples of input-output pairs. These constraints are derived from prior domain knowledge, e.g., from known laws of physics. We demonstrate the effectiveness of this approach on real world and simulated computer vision tasks. We are able to train a convolutional neural network to detect and track objects without any labeled examples. Our approach can significantly reduce the need for labeled training data, but introduces new challenges for encoding prior knowledge into appropriate loss functions.