こんにちは。べんと申します。
本日は、2024年2月16日に受験した「JDLA Deep Learning for ENGINEER 2024 #1」の結果が返ってきましたので、振り返りを残しておきたいと思います。私も過去の偉人の軌跡を参考にさせていただきましたので、これから受験されるどなたかのお役に少しでも立てればと思います。
JDLA Deep Learning for ENGINEERについて
- 通称(?)E資格
- ディープラーニングの理論から応用、また最新のトレンド技術に対する理解が問われます
- CBT(Computer Based Test)形式で、120分の間に100問程度の問題に回答します
- 技術の進歩に従い1~2年ごとに試験範囲が改訂されています。次の改訂は次回(2024#2)からです
計算問題用に、画面の端には電卓機能がついているので、ご利用になることをお勧めします。(私は最後の問題に至るまで電卓の存在に気づかず苦労したので・・・)
認定プログラム
E資格の受験には、JDLA認定プログラムを修了する必要があります。学習方法や予算にあわせてどれを選んでいただいてもいいようです。
私はスキルアップAI社の「現場で使えるディープラーニング基礎講座」を選択しました。基礎的なところから最新のトレンド、また試験に出そうなポイントまでをわかりやすく解説していただき、ディープラーニングの基礎をまんべんなく抑えるのには非常にありがたいものでした。
サンプルプログラムも多く、概念はわかるけどどう動くの?といったものも理解しやすかったように思います。
認定プログラム以外の学習
学習時間の合計は、おおよそですが3カ月、90時間くらいだと思います(たぶん)。
- 認定プログラム
- 講義の受講 20時間
- サンプルプログラムの研究 20時間
- 課題 20時間
- 書籍による興味のある分野の自習 10時間
- シラバス(試験範囲)に記載のあるモデルの文献調査 20時間
私の場合、大学時代に行列演算や情報理論を専門的に勉強しており、その流れで機械学習についてもなんとなくレベルでは理解していたので、98%の時間は深層学習に、残りの2%を開発環境の学習に使っています。
これは私見ですが、試験に合格するだけであれば認定プログラムの内容をきちんと理解すれば十分だと思います。しかし、データがモデルの中でどのように処理されていくのか、また自分で実装することを想定した場合には、書籍や論文、またgithub等で実装を確認しておくのがおススメです。
書籍による興味のある分野の自習
こちらの記事の一部でも紹介していますが、もう少し勉強しようと思って読んだ本は下記の通りです。
「ゼロつく」として知られるシリーズです。過去の多くの受験者の方々のおススメだったので、一応読んでおこうと思い購入。シリーズ1冊目は、幸いにも私の受講した認定プログラムの総復習となっていたので、復習の手間が省けました。
シリーズ2冊目の方は自然言語処理に特化しており、認定プログラム内で省略されていた箇所が丁寧に解説されていたため、この分野の理解が深まりました。
ただし、初版2018年、第二版2020年の本なので、TransformerやGPTまわりの詳細には触れておらず、ここは別の方法で補完しました。
Transformer周辺の理解を深めるため、なんとなく店頭に並んでいた2冊を購入。Transformerの応用(一部)であるBERTについて、概念と使い方はこの2冊で理解できました。(2冊読みましたが、内容に大きな差はなかったように思います。1冊でよかったかも・・・)
ただし、データ処理の具体的な流れや、GPT等のBERT以外のモデルについてはあまり詳細に語られていないので、後述(文献調査)の方法で理解しました。
試験ではPytorchまたはTensorflowを使ったプログラムの問題が出題されます。いずれのフレームワークもあまり馴染みがなかったので、一冊あってもいいかと思い購入。(なお、これから学ぶならPytorchだろうと決め打ちでフレームワークも決定。)
非常にボリュームの大きい本なので、購入時点でなじみの深かったCNN部分だけを読みました。もともとnumpyだけで作っていた自作CNNをPytorchで書き直すことで、なんとなく理解した気になりました。機械学習の範囲についても気になるところだけ読んで終了しました。
本書のカバー範囲は機械学習~深層学習のほぼ全範囲にわたっているので、今後も辞書的な使い方をすることを想定し、机の手の届く範囲に飾っています。
開発環境については今後も実践で使うだろうと思い、一冊購入。試験範囲としてはDockerの基本的な使い方を理解しておけば十分です。
シラバスに記載のあるモデルの文献調査
シラバスに記載のあるモデルについては、特に想定される入力データがどのような形式で、モデル内でどのように処理されるのかをイメージするため、文献調査を行いNotionにまとめていました。
文献調査といいつつ、実行したのはQiitaの論文紹介記事の確認、論文へのアクセス、あとはChatGPTの活用です。
論文やその紹介記事を確認することで、モデルの構造や特徴は理解しやすくなっているのですが、実際にはどのような入力/出力データの形式か、モデル内の各レイヤーがどのように作用するのかまでイメージできるレベルの記載があるものは少なかった印象です。ChatGPT(GPT-4)は2023年4月までの情報、つまりは今回の試験範囲のほとんどの情報はもっているので、自分がどこまで理解していて何がわからないのかを言語化し、納得するまで質問を繰り返すことで、疑問点はすべて解決することができました。
試験結果
無事に合格することができました。
■分野別の得点率
応用数学:86 %
機械学習:90 %
深層学習:87 %
開発環境:86 %
昔からテストで100点がとれない人でしたが、今回も何を間違えたのかが気になります。
なお、合格点は明記されていませんが、得点率でおおよそ60%強でしょうか。(https://www.jdla.org/news/20240308001/)
感想(まとめ)
総じて、すべての学習プロセスを通して楽しめたと思います。
試験範囲が非常に広いにもかかわらず、認定プログラムの解説がわかりやすかったこと、それでもわからないところはChatGPTが解決してくれたことで、AIと呼ばれる分野の基礎をかなりのスピードで吸収できたのではないかと思います。日々新たな知識が入ってくる感覚が奇妙でした。
今回獲得したノウハウは、今後間違いなく必要になってくるものだと思います。
機会があれば別の資格試験にもチャレンジするかも?
べん