メモ程度ですが、残しておきます。
全体的に、非常に楽しかったです。
概要
まとめ
- Computational NeuroScienceが目指すような、Cellのコネクティビティを模倣する形での知能の獲得はまだむずかしい
- 一つ上の計算論の部分はDeepLearning使って実現できそう
以下、詳細
「人工知能の難問と表現学習」(東京大学 准教授 松尾豊氏)
- 以下を目指す
- 脳の各器官を機械学習として開発
- それらをアーキテクチャとして統合
- DeepLearningが有効だろう
- よい特徴量とそれによって定義される概念を作ることを人間がやるしかなかったが、DLが解決してくれる、かも
- 素性設計
- フレーム問題
- シンボルグラウンディング問題
- DL最近のトピック
- 猫を獲得した時は8層
- いまは19とか22
- 100層に向けて
- 画像認識についてはCNNをいかに高速に実装するか
- 動画に使うRNN, LSTMあたりは進化中
- DQN,Neural turing machine
- 少子高齢化の日本では人工知能は産業競争力の切り札
「全脳アーキテクチャと大脳皮質モデル BESOM の実用化研究の構想」(産業技術総合研究所 人工知能研究センター脳型人工知能研究チーム 一杉裕志氏)
- 各器官の計算論モデルを構築する
- 産総研 人工知能研究センター作ったよ
- 全脳アーキテクチャ勉強会で得た収穫
- このままアーキテクチャを模倣していって大丈夫そう
- 海馬とSLAMの類似点/相違点
- 思考、モデルベース教科学習、周辺化の近似
- 時系列学習
- ESN, LSTM
- このままアーキテクチャを模倣していって大丈夫そう
- BESOMとは
- DeepLearningと同じ構造を持った制限付きベイジアンネット
- 近似確率伝播アルゴリズム
- Ichisugi 2007
- コラム構造、6層構造との一致
- 大脳皮質はベイジアンネットであるという仮説
- ベイジアンネットによるDeepLearning
- スケーラブル
- feed forwardより高機能
- 短期記憶で隠れノードを増やす
- 視覚野、言語野の模倣を目指す
- BESOM-lab 3.0
- 先行研究
- PATON
- Ohmori 1999
- PATON
「全脳アーキテクチャを支えるプラットフォーム」(理化学研究所 生命システム研究センター チームリーダー 高橋恒一氏)
- 大脳
- 2ステップで大多数カラム間が接続
- Deep Q-Network
- 複合学習器の構成方法
- Composition
- NeuralTalk
- Hybrid
- Deep Q-Network
- Composition
- モジュール発火の並行性
- モジュールの入力/出力を非同期にする必要あり
- 分散表象とベクトル表現
- ニューロン発火頻度の数値ベクトルで表現できる?
- グラフ構造をどううまく扱えるか
- 人の脳は1PFlopsくらい
- バンド幅はまだよくわからない
経産省の方
- 脳型人工知能すすめよう
「汎用人工知能に向けた認知アーキテクチャが解決するべき知識の課題」(国立情報学研究所 情報学プリンシプル研究系 准教授 市瀬龍太郎氏)
- 汎用人工知能(AGI)で認知アーキテクチャ構築を目指す
- 言語モデルの構築にあたり、computational linguisticsが有効
「感情モデルと対人サービス」(玉川大学 脳科学研究所 教授 大森隆司氏)
- ロボットの知能のモデリングに際し、観察される行動の裏側の"感情”を推定し、評価することにした
- インタラクション = 心的ダイナミクス
- 相手の内部状態をどう動かしていくか
- 相手の意図推定
- 心的ダイナミクスは、知的状態+感情状態
- 感情は報酬系と関連がある
- 強化学習
- 相手の感情を推測しながら行動を選択させ、行動の遷移確率モデルを構築
- 実験を行い、上記遷移確率モデルが相手となった子供の性格モデルと相関があることを検証