ChatGPT登場以来、大規模言語モデルを始めとした生成AIの活用により、世の中の流れが一気に変わりました。
そんな中、一昨日、日本ディープラーニング協会(JDLA)が「Generative AI Test 2023」という、生成AIのスキルチェック試験が緊急開催されました。
第1回のお祭りは参加しなければいけない!という、資格マニアとしての使命感に駆られ、受験してきました。第2回があるかは不明ですが、今後受験される方の参考になればと、準備した内容や感想についてまとめておきたいと思います。
なお、合否連絡は6/28とのことですので、合否が出る前に本記事を執筆していること、ご承知おき下さい。(※試験結果を追記しました(6/28))(※認定バッジに関して追記しました(10/18))
(2023#2の受験記をhttps://qiita.com/t_horumon/items/12db83fabd9c15fbe7a8 で、2024#1の受験記をhttps://qiita.com/t_horumon/items/267264b20e2f9741bccb で公開しています。)
参照:試験公式HP:https://www.jdla.org/certificate/generativeai/
0. 筆者について
このような受験記は、書いた人間がそもそもどれくらいの知識を持っていたかを知らないと、勉強教材をご参考頂いたときに過不足が出てしまいますよね。
なので、一応、私のステータスを少し書いておきます。
- 15年戦士のインフラエンジニア。ここ10年くらいはずっとビッグデータ基盤を担当。
- ビッグデータの出口としてAIは王道なので、機械学習がなんたるかとか、その特徴・リスクなどは把握済み。
- インフラエンジニアなので、ディープラーニングの理論はあんま理解できていない。再帰的~とか、畳み込み~とかは、概要は知っているけど、数式はちんぷんかんぷん。
- ChatGPTが出てきた後で生成AIも本気でキャッチアップ。ディープラーニング同様、概要は把握しているけれど、理論はあんまり勉強できていない。
1. 試験概要
申し込み期間2週間、その直後に本番という、少し慌ただしいスケジュールの試験でした。
私は、申込期間初日に申込みはしたものの、業務多忙もあり、実質的な準備期間(勉強期間)として確保できたのは1週間くらいでした。
また、第1回の試験なので、合格ラインの公開はないというところが受験者としては不安なところですね。(記念受験でこの記事のネタとしているだけで、受験費用2000円の元は取れている気がしますがw)
項目 | 内容 |
---|---|
正式名称 | 「JDLA Generative AI Test 2023」 |
受験資格 | どなたでも受験可能 |
実施概要 | オンライン実施(PC/スマホ) |
試験時間 | 15分 |
試験内容 | 20問程度 択一式/多肢選択式 |
開催日時 | 2023年6月24日(土)10:00 〜 23:59 |
受験申込期間 | 2023年6月7日(水)13:00 〜 2023年6月20日(火)23:59 |
受験費用 | 2,200円 (税込) |
2. 試験範囲
試験範囲についても、公式HPより転記しておきます。
15分の試験の割に、試験範囲が広いなぁと言うのが感想です。ただ、単純に試験に合格することだけを考えるなら山を張っても良いかもしれませんが、「生成AIを活用できる人材になる」というJDLAの期待を考えますと、この範囲は一通り把握しておいた方が良いかと考えます。
私は業務上も生成AIを触る立場の人間ですので、一通りは把握できるよう、準備を進めることにしました。(とは言いつつ、時間は一週間しかない。。。)
大項目 | 小項目 | 確認点 | キーワード |
---|---|---|---|
生成AIの技術 | 特徴 | テキスト、画像、音声等の生成モデルに共通する技術的な特徴を俯瞰して理解している。 | 確率モデル、ハルシネーション (Hallucination) |
大規模言語モデルの基本構造を理解している。 | 基盤モデル、言語モデル、大規模言語モデル (LLM)、トランスフォーマー (Transformer)、アテンション (Attention)、GPT-3 | ||
大規模言語モデルにおけるモデルの学習方法を理解している。 | 教師あり学習、自己教師あり学習、事前学習、ファインチューニング | ||
大規模言語モデルのアラインメントを理解している。 | アラインメント (Alignment)、人間のフィードバックによる強化学習 (RLHF)、インストラクション・チューニング (Instruction Tuning) | ||
大規模言語モデルにおける生成の仕組みを理解している。 | コンテキスト内学習 (In-Context Learning)、Zero-Shot、Few-Shot、サンプリング手法 | ||
動向 | テキスト、画像、音声等の生成モデルの技術動向を俯瞰して理解している。 | 条件付き生成、拡散モデル (Diffusion Model) | |
大規模言語モデルのオープン化の動向と原因について理解している。 | オープンコミュニティ、オープン大規模言語モデル、オープンデータセット、オープンソース | ||
大規模言語モデルの性能を決める要素の動向と原因について理解している。 | スケーリング則 (Scaling Laws)、データセットのサイズ、データセットの質、モデルのパラメーター数、計算資源の効率化、GPU | ||
大規模言語モデルのマルチモーダル化の動向と原因について理解している。 | マルチモーダル | ||
大規模言語モデルの外部ツール・リソースの利用の動向と原因について理解している。 | 学習データの時間的カットオフ、大規模言語モデルの知識、大規模言語モデルの不得意タスク | ||
生成AIの利活用 | 特徴 | 生成AIには何ができるのかを理解している。 | ケイパビリティ |
生成AIをどのように使うのかを理解している。 | 活用事例 | ||
生成AIの性能を拡張する使い方を理解している。 | プロンプトエンジニアリング | ||
動向 | 生成AIの新たな活用方法を生み出すためのアプローチを理解している。 | ハッカソン、自主的なユースケース開発、インターネット・書籍、活用の探索 | |
生成AIの活用を制限する要因を理解している。 | 生成AIの学習データ、生成AIの性能評価、生成AIの言語能力 | ||
業界に特化した生成AIの活用方法を理解している。 | ChatGPT・Bard、広告クリエイティブへの応用、ドメイン固有 | ||
生成AIのリスク | 特徴 | 生成AIが、技術面・倫理面・法令面・社会面などで多様なリスクを孕むことを理解している。 | 正確性、ハルシネーション (Hallucination)、セキュリティ、公平性、プライバシー、透明性 |
生成AIの入力(データ)と出力(生成物)について注意すべき事項を理解している。 | 著作権、個人情報、機密情報、商用利用、利用規約 | ||
動向 | 生成AIについて、現時点では認識されていない新たなリスクの出現とそれに伴う規制化の可能性を理解している。 | 新たなリスク、規制化、情報収集 | |
生成AIの活用に伴うリスクを自主的に低減するための方法を把握している。 | 自主対策 |
3. 私が利用した学習教材
先述した通り、私はインフラエンジニアで、概要は把握しているけれど体系だった知識は持っていない、という状況でした。
そこで、下記のような流れで試験範囲の知識の取得に取り組みました。
- 試験範囲全体の概要の把握
- 生成AIの活用についての知識の取得
- Transformerの仕組みについての把握
- プロンプトエンジニアリングの体系だった知識の取得
- 生成AI活用のリスクの把握
試験範囲全体の概要の把握
まずは試験範囲全体像を把握するためにも、JDLA公式の動画を視聴しました。
公式試験HPでも学習教材として紹介されていますので、この動画の内容の把握は必須かと思います。
1時間でChatGPTの仕組みから活用までまとめられており、これからChatGPTを始める人にはとても良い教材かと思います。
「JDLA緊急企画!「生成AIの衝撃」~ ChatGPTで世界はどう変わるのか? ~」
生成AIの活用についての知識の取得
公式動画ではChatGPTに絞って紹介がありましたが、本テストは「GenerativeAI Test」と謳っていますので、言語モデル以外の生成AIについてもキャッチアップが必要かと思いました。
弊社、udemyのビジネス会員で動画が見放題なこともあり、ここのキャッチアップは下記を拝聴してキャッチアップを進めました。
ChatGPTだけでなく画像生成AI Midjourneyを用いて、生成AIの活用について広くキャッチアップができる良い教材でした。
「ジェネレーティブAI(生成AI)入門【ChatGPT/Midjourney】 -プロンプトエンジニアリングが開く未来-」
プロンプトエンジニアリングの体系だった知識の取得
生成AIの活用については、シラバスのキーワードに「zero-shot/few-shot」がありましたので、動画の視聴だけでなく、もう少し踏み込んでキャッチアップをしました。
このあたりは、「プロンプトエンジニアリング」という学問が既に成り立っていまして、下記のページがそのあたりを整理して下さっていて助かりました。
「Prompt Engineering Guide」
※ちなみに、プロンプトエンジニアリングの「zero-shot/few-shot」と、機械学習でいうところの「zero-shot learning/few-shot learning」って、別物ですよね?このあたりのキーワードはかなりややこしいので、キーワードとして知っておくだけでなく、本質をしっておかないと試験対策としても難しいところですね。
Transformerの仕組みについての把握
生成AIの活用に関しては広く学べましたので、次は仕組みのキャッチアップです。
時間も限られていましたので、仕組みについてはTransformer周りの学習に絞りました。
こちらは、下記のudemyのTransformer関連説明のある1節と3節を利用させて頂きました。(ここに辿り着いた時点で残り2日でしたので、全部を見ることは断念。)
「BERTによる自然言語処理を学ぼう! -Attention、TransformerからBERTへとつながるNLP技術-」
生成AI活用のリスクの把握
最後に、生成AI活用のリスクや課題について学んでおきます。
これには、試験HPで試験対策として紹介されていることもあり、JDLA公式のガイドラインを参照しました。
個人的な感想ですが、これは、生成AIの仕組みと活用、それを一通りキャッチアップした後に最後に見ておくのが良いと思います。
私は最初と最後にこのガイドラインを参照しましたが、知識としてリスクを知っておくことと、仕組みを知った上でリスクを理解することでは、やはり頭への根付き方に大きな違いがあります。
「生成AIの利用ガイドライン」
ちなみに、一通りの動画を確認した上で、それでも知らないリスクが書いてあり、有用な資料でした。
特に、「プロンプトエンジニアリングで生成した画像は著作物認定をされる可能性があるが、プロンプトエンジニアリングで生成した文章は著作物認定される可能性が低い」など、知っておかないといけない事柄があり、実際に業務で活用することになった際は、もう一度見直したい資料です。
おまけ
ここまで一通り体系だった知識を学習した上で、もう一度シラバスとにらめっこをし、理解の怪しい単語があれば、最後に個別にそれをググって理解を深めました。
ChatGPT様に聞いて回ることも考えたのですが、ハルシネーションが怖く、「試験対策」という間違った知識を入れることが不合格に直結するシチュエーションではやはりGoogle先生を選んでしまいました。
ただ、試験対策問題集を作ってもらったりとかは遊んでみましたので、そういう活用なら既に即戦力かもしれません。(あまりにも時間が足りず、試験問題を出力できることで満足し、活用するところまでは行けませんでしたが。。。。。)
※と言いつつ、問題2の回答が間違っていますよね。。。ご愛敬ってことで。。。
4. 受験した感想
試験としては、やはり自信のない問題は一定数ありますが、手応え自体は悪くありません。
本試験は、「15分間で20問」という回答の瞬発力が求められることが特徴でしょう。
私の場合は、悩んで時間を浪費したら負けだと思い、例え悩んでも即回答し、10分くらいで20問を解き終え、5分で見直しをするという感じでした。
ただ、5分の見直しでは前半までしか見直せず強制終了となったので、後半の悩んだ問題は即答回答のままという形になったのが不安点でしょうか。
また、複数選択問題がありますので、単純に言葉の定義を暗記するだけでは答えられず、本質を理解しているかが問われた印象です。
「本質を理解する」ということは、単に試験対策としてだけでなく、生成AIを活用する際にも間違った使い方をしないように必要になることですので、是非、暗記対策ではなく理解をする心掛けをすると良いでしょう。
5. 試験結果(6/28追記)
無事に受かってました。
利活用のところは少し弱いですが、勉強方針としてはそんなにずれていないと思います。
6. 認定バッジ(10/18追記)
Generative AI Testの第二回の開催が決まりましたね。
https://www.jdla.org/certificate/generativeai/
第二回の開催が決まったからか、作らない方針と言われていたバッジが配布されました。
色々な資格を取得してバッジを頂いていますが、ブロックチェーンでの配布バッジは私も初めての経験です。
JDLAはこのあたりにもこだわっていますね!