12/14 今日学んだこと
学び → [H,X]というのは、ベクトルを横に並べることを意味している
ここで注意することがあり、それが隠れユニット[H]の次元だということ
[H]というのは、実は使う側に決定権がある。
n_hidden: 隠れ層 -> 数が多い程,学習モデルの複雑さが増加
LSTM(n_hidden, batch_input_shape=(None, length_of_sequence, in_out_neurons), return_sequences=False))
教えてくれた本 https://amzn.to/3qTVmFt
ディープラーニング構築テンプレート[AIプロジェクトの必須事項と技術的指針]
人物 : https://roboteer-tokyo.com/archives/330
12/12
LSTMの件、やはり習うよりは慣れろという感じ・・・
ボートの漕ぎ方を机上で学ぶより、まず浮かんでみてナンボやという感じ
参考資料 https://math.uni.lu/eml/projects/reports/2020_Summer/DiasMoreira.pdf
E資格に向けて
今日はLSTMの件をずっと調べている。
情報源
https://www.zhihu.com/question/41949741
自分と同じような疑問を持たれている、ややレベルの低めの
情報を探そうとすると、やはり中国にたどり着くことが多い。
(この点、日本のエンジニアは皆さん、相当に頭が良いというか、呑み込みが早いというか・・・)
この年になって、新しい概念をすんなり受け入れるには、
何かと苦労するものである・・・
LSTM
そんな訳で、少しは分かりやすいイメージを得たので、
ここから勉強をすることにする。
その他
zhifuのサイトは情報量が多くて、最近、よく見ている