この記事は自分用のメモみたいなものです.
ほぼ DeepL 翻訳でお送りします.
間違いがあれば指摘していだだけると嬉しいです.
翻訳元
The Consciousness Prior
Author: Yoshua Bengio
前: 【1 Introduction】
次: 【3 Consciousness Prior Theory】
2 System 2 Processing and Global Workspace Theory of Consciousness
訳文
まだ多くの競合する理論があるため, 一般的に受け入れられている意識の定義がなく, 我々は認知の意識的な側面を, 人間が言語を通して報告できるものと考えている. 意識的な処理は, カーネマンの システム2 の認知能力と密接に関連してる [Kahneman, 2011]. システム1 のタスクは, 現在成功しているディープラーニングの応用, 例えば, 低レベルの知覚 (およびそれ以下の低レベルの行動) や直観的な知識 (例えば, 特定の囲碁の手が良いことを知っているとか, 与えられた絵に犬のイメージが含まれていることを知っているなど), すなわち, 言語化することが難しく, 一般的に非常に迅速に (1秒未満で) 応用できる知識とよく一致する. 一方, システム2 の認知能力は, 口頭で説明できるものであり, したがって, 我々の認知能力のうち, コンピュータに明示的に (典型的には一連の計算ステップとして) 伝えることができる部分を含み, 推論, 計画, 想像力のようなものが含まれる. 典型的な システム2 のタスクは, 意識的なステップのシーケンスを必要とし, システム1 のタスクよりも時間がかかる傾向があることを意味する. この定義では, システム2 の能力は意識と密接に関連している.
認知神経科学は数十年前から意識の研究を行ってきたが, この論文の基盤となっている理論の支配的なファミリーは, グローバルワークスペース理論 [Baars, 1988, 1997, 2002, Dehaene and Naccache, 2001, Dehaene et al., 2017] に基づくものである. この理論では, 我々はワーキングメモリの内容を瞬間的に形成する特定の情報の断片を意識するようになると仮定している. したがって, 意識的思考とは, 私たちが意識するようになったこれらの要素のセットであり, それらは一緒に結合され, 無意識レベルで脳内で行われている他の計算プロセスでグローバルに利用できるようになっている. 意識はこのように, 意思決定 (自発的行動), 記憶 (意識していないことをすぐに忘れてしまう傾向がある), 知覚 (意識的注意の現在の焦点から気をそらすかもしれない感覚的入力の要素に目がくらむかもしれない) に強い影響を与える情報のボトルネックの形を提供している.
グローバルワークスペース理論が直接取り上げていない意識の他の側面, 例えば自己の概念や主観的知覚のようなものがあり, ここではそれらを研究していない. その代わりに, 意識の理論 (特にグローバルワークスペース理論) を形式化する方法としての機械学習のアイデアや実験の利用, 学習エージェントにもたらすことができる利点 (例えば, 世界の特定の側面のための有用なプライヤーとして) の識別, そして、例えばサンプル効率 (または学習速度) や分布外一般化への影響を測定する機械学習実験を介してこれらの理論をテストする方法としての機械学習の使用に興味を持っている.
原文
For lack of a generally accepted definition of consciousness because there are still many competing theories we consider conscious aspects of cognition as those which humans can report about through language. We closely associate conscious processing to Kahneman’s system 2 cognitive abilities [Kahneman, 2011]. System 1 tasks align well with the current successful applications of deep learning, e.g., low-level perception (and to a lesser extent low-level action) and intuitive knowledge (e.g. knowing that a particular Go move is good or that a given picture contains the image of a dog), i.e., knowledge which is difficult to verbalize, and which can typically be applied very quickly (in less than a second). On the other hand, system 2 cognitive abilities are those which can can be described verbally, and thus includes the part of our cognitive abilities which we can communicate explicitly to a computer (typically as a sequence of computational steps), and include things like reasoning, planning and imagination. Typical system 2 tasks require a sequence of conscious steps, which also means that they tend to take more time than system 1 tasks. By this definition, system 2 abilities are closely related to consciousness.
Cognitive neuroscience has been investigating consciousness for several decades and a dominant family of theories on which this paper is anchored are those based on the Global Workspace Theory [Baars, 1988, 1997, 2002, Dehaene and Naccache, 2001, Dehaene et al., 2017]. This theory posits that we become aware of specific pieces of information which will momentarily form the content of working memory. A conscious thought is thus a set of these elements of which we have become aware, joined together and made globally available to other computational processes taking place in the brain at an unconscious level. Consciousness thus provides a form of bottleneck for information which has a strong influence on decision-making (voluntary action), memory (we tend to very quickly forget what we have not been consciously aware of) and perception (we may be blind to elements of our sensory input which may distract us from the current focus of conscious attention).
There are other aspects of consciousness which the global workspace theory does not directly address, such as the notion of self and that of subjective perception, and we do not study them here. Instead, we are interested in the use of machine learning ideas and experiments as ways to formalize theories of consciousness (particularly the global workspace theory), identify advantages which they can bring to a learning agent (e.g. as a useful prior for specific aspects of the world), and as a way to test these theories via machine learning experiments measuring for example their effect on sample efficiency (or the speed of learning) and out-of-distribution generalization.