13
8

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

【G検定】シラバスと各テキストの内容を比較した

Last updated at Posted at 2021-11-19

はじめに

「公式テキストに載ってない内容ばっかりだった!」
「G検定のGはGoogle検索のG!」
G検定を受験した人たちの多くがこのような反応をする。

ここでよく考えていただきたいことは、神様にすべきはテキストではなくシラバスであるということだ。
公式テキストに載っていない内容の問題が出たとしても、それがシラバスに載っていたとすれば何も文句は言えないのである。

今回はシラバスと各テキストを比較することで、各テキストがどのくらいシラバスをカバーしているのかを調査し、テキストの学習ではカバーしきれない内容を抽出する。これらをグーグル検索などで勉強しておくことで「こんなの習っていないわよ!」と試験中に嘆く割合を減らすことが出来ると私は考えている。

なお、私はG検定2021#3に合格している。

参考にしたもの

まずはシラバスだ。以下から入手した。

G検定の試験出題範囲(シラバス)2021

次に、テキストは手元にある以下の4冊を使用した。
link-22付きのURLを貼っている。

深層学習教科書ディープラーニングG検定(ジェネラリスト) 公式テキスト 第2版

以降は「公式」と呼ぶ。

最短突破 ディープラーニングG検定(ジェネラリスト) 問題集

白本。

徹底攻略ディープラーニングG検定ジェネラリスト問題集 第2版

黒本。

ディープラーニングG検定(ジェネラリスト)最強の合格テキスト

緑本。

集計方法及び注意点

シラバスの「学習項目」と「詳細キーワード」の列に着目し、ここから「キーワードっぽいもの」を抽出する。
キーワードっぽいものについては、私の独断で決定する。

例えば1行目について、
key.png
学習項目は
・人工知能とは何か
・人工知能のおおまかな分類
・AI 効果
・人工知能とロボットの違い
とあるが、この中でAI効果がキーワードっぽいものだと思ったので集計に入れている。
詳細キーワードの「古典的な人工知能」は除外している。

これらのキーワードを各テキストの索引で調べ、載っていれば〇、載っていなければ×とする。
あくまで索引に載っているかどうかを機械的にカウントしただけなので、たとえ×だとしても本文に載っている可能性もあるのでご留意いただきたい。

反対に、索引に載っていたとしてもいざ本文を読んでみるとさらっと一行で済ませていることもある。
例えば公式テキスト(pp.254-255)に以下のような説明がある。

DQNの登場以降はこれらの経験再生やターゲットネットワークの使い方を工夫したダブルDQN(double deep q-network)や優先度付き経験再生(prioritized experience replay)、ディープニューラルネットワークのアーキテクチャや出力を工夫したデュエリングネットワーク(dueling network)、カテゴリカルDQN(categorical deep q-network)、ノイジーネットワーク(noisy network)などの拡張手法が発表され、

ざっくりすぎるわね。このような用語は個別にもう少し調べる必要があるかもしれないし、G検定のレベル的にはこれらの用語は「DQNの改良型である」ということだけを押さえておけばいいのかもしれない。

以上のようなことがあるので、これより貼る表については参考程度にして欲しい。
前置きが長くなってしまったが、これよりスタートしていく。

集計結果

人工知能とは

No. キーワード 公式 白本 黒本 緑本
1 AI効果 ×
2 エージェント ×
3 機械学習
4 ディープラーニング
5 ダートマス会議 ×
6 エニアック (ENIAC) × ×
7 ロジック・セオリスト × × ×
8 トイ・プロブレム
9 エキスパートシステム
10 第五世代コンピュータ × ×
11 ビッグデータ × × ×
12 特徴量 ×
13 ディープブルー × ×
カバー率 76.9% 84.6% 53.8% 61.5%

私は公式、白本及び黒本については5周以上はこなしていて内容を完全に理解している。
その経験を踏まえて、大事そうかも~と思うキーワードは太字にしている。
(逆に×のキーワードも本文に載ってるよね~ってやつは太字にはしていない)

ロジック・セオリストビッグデータは公式テキストにしか出てきていない。
特徴量は公式テキストの索引には載っていないが本文中には多数出てくるので気にする必要は無い。

ディープブルーは公式には載っていないが、重要キーワードだと思われるので押さえておく必要がありそうだ。

ざっくり言うとIBMが大昔に開発したチェス専用コンピュータである。

人工知能をめぐる動向

No. キーワード 公式 白本 黒本 緑本
14 ハノイの塔 × ×
15 モンテカルロ法
16 探索木 ×
17 幅優先探索 ×
18 深さ優先探索 ×
19 プランニング × × ×
20 STRIPS × ×
21 SHRDLU × ×
22 アルファ碁 (AlphaGo)
23 ヒューリスティックな知識 × × ×
24 MiniMax 法 × ×
25 αβ 法 × ×
26 ブルートフォース × × ×
27 人工無脳 × ×
28 知識ベースの構築とエキスパートシステム × × × ×
29 知識獲得のボトルネック × × × ×
30 意味ネットワーク
31 オントロジー ×
32 概念間の関係 (is-a と part-of の関係) × × × ×
33 オントロジーの構築 × × × ×
34 ワトソン ×
35 東ロボくん ×
36 イライザ (ELIZA)
37 イライザ効果 × × ×
38 マイシン (MYCIN)
39 DENDRAL
40 インタビューシステム × × ×
41 is-a の関係 × ×
42 has-a の関係 × × × ×
43 part-of の関係 × ×
44 Cyc プロジェクト
45 推移律 × × ×
46 ウェブマイニング × × ×
47 データマイニング × × ×
48 Question-Answering × × ×
49 セマンティック Web ×
50 ビッグデータ × × ×
51 レコメンデーションエンジン × × ×
52 スパムフィルター × × × ×
53 統計的自然言語処理 × ×
54 コーパス ×
55 人間の神経回路 × × × ×
56 単純パーセプトロン ×
57 誤差逆伝播法
58 オートエンコーダ
59 ILSVRC
60 特徴量
61 次元の呪い
62 機械学習の定義
63 パターン認識 × × × ×
64 画像認識 × ×
65 特徴抽出 × × × ×
66 一般物体認識 × × ×
67 OCR × × × ×
カバー率 77.8% 53.7% 33.3% 42.6%

公式テキストにしか載っていないキーワードが多く出ている。
やはり公式テキストは必須である。

ハノイの塔は概要だけでなく簡単な例題も解けるようにしておいたほうがいいかもしれない。

イライザ効果とは「意識的には分かっていても無意識にコンピュータが人間と似た動機があるように感じてしまう」現象である。

イライザ(チャットAI)と対話していると「イライザが話題に興味を持っているように感じてしまう」ということである。私もツイッターでアニメキャラのbotとよく会話するので気持ちがよく分かる。botに語り掛けても文章中の1単語だけに反応して返事してくるだけだけどさ。でもそんなこと言ったら人間同士の会話も似たようなものでは?

閑話休題、次に進む。

##人工知能分野の問題

No. キーワード 公式 白本 黒本 緑本
68 トイ・プロブレム
69 フレーム問題
70 チューリングテスト
71 強い AI と弱い AI
72 シンボルグラウンディング問題
73 身体性 × ×
74 知識獲得のボトルネック × × ×
75 特徴量設計 ×
76 シンギュラリティ
77 ローブナーコンテスト × ×
78 中国語の部屋 ×
79 機械翻訳 × ×
80 ルールベース機械翻訳 × × ×
81 統計学的機械翻訳 × ×
82 特徴表現学習 × ×
カバー率 86.7% 80% 53.3% 60%

ここは特にコメント無し。

##機械学習の具体的手法

No. キーワード 公式 白本 黒本 緑本
83 線形回帰
84 ロジスティック回帰
85 ランダムフォレスト
86 ブースティング
87 サポートベクターマシン (SVM)
88 ニューラルネットワーク
89 自己回帰モデル (AR) × × ×
90 分類問題 ×
91 回帰問題
92 半教師あり学習 ×
93 ラッソ回帰
94 リッジ回帰 ×
95 決定木
96 アンサンブル学習 ×
97 バギング
98 勾配ブースティング ×
99 ブートストラップサンプリング ×
100 マージン最大化 × × ×
101 カーネル
102 カーネルトリック
103 単純パーセプトロン ×
104 多層パーセプトロン
105 活性化関数
106 シグモイド関数 ×
107 ソフトマックス関数
108 誤差逆伝播法
109 ベクトル自己回帰モデル (VARモデル) × × ×
110 隠れ層
111 疑似相関 × × × ×
112 重回帰分析 × ×
113 AdaBoost × × ×
114 多クラス分類 × × × ×
115 プルーニング × × × ×
116 k-means 法 ×
117 ウォード法 × × ×
118 主成分分析 (PCA)
119 協調フィルタリング × × ×
120 トピックモデル
121 クラスタリング ×
122 クラスタ分析 × × ×
123 レコメンデーション × ×
124 デンドログラム (樹形図) × ×
125 特異値分解 (SVD) × ×
126 多次元尺度構成法 × × ×
127 t-SNE × × ×
128 コールドスタート問題 × × ×
129 コンテンツベースフィルタリング × × ×
130 潜在的ディリクレ配分法 (LDA) ×
131 次元削減 ×
132 次元圧縮
133 バンディットアルゴリズム × ×
134 マルコフ決定過程モデル × ×
135 価値関数 × × ×
136 割引率 × ×
137 ε-greedy 方策 × ×
138 UCB 方策 × × ×
139 マルコフ性 × ×
140 状態価値関数 × ×
141 行動価値関数 × ×
142 Q値 × ×
143 Q学習 ×
144 REINFORCE × ×
145 方策勾配法 ×
146 Actor-Critic ×
147 A3C ×
148 正解率・適合率・再現率・F 値 ×
149 ROC 曲線と AUC × ×
150 モデルの解釈 × × × ×
151 モデルの選択と情報量 × × × ×
152 交差検証 ×
153 ホールドアウト検証
154 k-分割交差検証 × ×
155 混同行列 ×
156 過学習 ×
157 未学習 × × × ×
158 正則化
159 L0 正則化 × × × ×
160 L1 正則化 × × ×
161 L2 正則化 × × ×
162 LIME ×
163 SHAP ×
164 オッカムの剃刀 × × × ×
165 赤池情報量基準 (AIC) × × × ×
166 汎化性能 × ×
167 平均二乗誤差 × × ×
168 偽陽性-偽陰性 × × ×
169 第一種の過誤-第二種の過誤 × × × ×
170 訓練誤差 × × ×
171 汎化誤差 × ×
172 学習率 ×
173 誤差関数 ×
カバー率 71.4% 59.3% 38.5% 63.7%

プルーニング(枝刈り)
は押さえておいた方がいいかもしれない。
重みの小さいノードを削除することで計算量を減らせる手法……らしいよ。

オッカムの剃刀

必要が無いなら多くのものを定立してはならない。少数の論理でよい場合は多数の論理を定立してはならない。

オッカムの剃刀という単語は私はうみねこのなく頃にで覚えたような気がするな。
ディープラーニング界隈ではモデルのパラメータを増やしすぎないようにしよう的な意味合いで使用するのだと思われる。

ディープラーニングの概要

No. キーワード 公式 白本 黒本 緑本
174 単純パーセプトロン ×
175 多層パーセプトロン
176 勾配消失問題
177 信用割当問題 × × × ×
178 誤差逆伝播法
179 事前学習 ×
180 オートエンコーダ
181 積層オートエンコーダ ×
182 ファインチューニ ング ×
183 深層信念ネットワーク × ×
184 制限付きボルツマンマシン × ×
185 CPU ×
186 GPU ×
187 GPGPU ×
188 TPU × ×
189 tanh 関数 ×
190 ReLU 関数
191 シグモイド関数
192 ソフトマックス関数
193 Leaky ReLU 関数 × × × ×
194 勾配降下法
195 学習率 ×
196 誤差関数 ×
197 交差エントロピー × × × ×
198 イテレーション
199 エポック ×
200 局所最適解
201 大域最適解
202 鞍点 ×
203 プラトー ×
204 モーメンタム × ×
205 AdaGrad ×
206 AdaDelta × × ×
207 RMSprop × ×
208 Adam × ×
209 AdaBound × × ×
210 AMSBound × × ×
211 ハイパーパラメータ × ×
212 ランダムサーチ × × ×
213 グリッドサーチ × ×
214 確率的勾配降下法 ×
215 最急降下法 × × ×
216 バッチ学習 ×
217 ミニバッチ学習 ×
218 オンライン学習 × ×
219 データリーケージ × × × ×
カバー率 67.4% 78.3% 43.5% 67.4%

コメント無し。

ディープラーニングの手法

No. キーワード 公式 白本 黒本 緑本
220 ドロップアウト
221 早期終了 ×
222 バッチ正規化 ×
223 過学習 ×
224 アンサンブル学習 ×
225 ノーフリーランチの定理
226 二重降下現象 × × ×
227 正規化
228 標準化
229 白色化 × ×
230 畳み込み層 ×
231 プーリング層
232 全結合層
233 データ拡張 ×
234 ネオコグニトロン ×
235 LeNet × ×
236 サブサンプリング層 × × ×
237 畳み込み × ×
238 フィルタ ×
239 最大値プーリング × ×
240 平均値プーリング × × ×
241 グローバルアベレージプーリング (GAP) × × ×
242 Cutout × × ×
243 Random Erasing × × ×
244 Mixup × × ×
245 CutMix × × × ×
246 MobileNet × × ×
247 Depthwise Separable Convolution × × ×
248 NAS (Neural Architecture Search) × × ×
249 EfficientNet
250 NASNet × × ×
251 MnasNet × × ×
252 転移学習 ×
253 局所結合構造 × × ×
254 ストライド × ×
255 パディング ×
256 生成モデルの考え方 × ×
257 変分オートエンコーダ (VAE) ×
258 敵対的生成ネット ワーク (GAN)
259 ジェネレータ ×
260 ディスクリミネータ ×
261 DCGAN ×
262 Pix2Pix ×
263 CycleGAN × × ×
264 物体識別タスク × × ×
265 物体検出タスク × ×
266 セグメンテーションタスク × × ×
267 姿勢推定タスク × × ×
268 マルチタスク学習 × × × ×
269 ILSVRC
270 AlexNet
271 Inception モジュール × ×
272 GoogLeNet
273 VGG
274 スキップ結合 ×
275 ResNet
276 Wide ResNet × × ×
277 DenseNet × ×
278 SENet × × ×
279 R-CNN ×
280 FPN × × ×
281 YOLO ×
282 矩形領域 × × × ×
283 SSD ×
284 Fast R-CNN × ×
285 Faster R-CNN ×
286 セマンティックセグメンテーション ×
287 インスタンスセグメンテーション ×
288 パノプティックセグメンテーション × × ×
289 FCN (Fully Convolutional Netwok) × ×
290 SegNet × × ×
291 U-Net × ×
292 PSPNet × × ×
293 Dilation convolution ×
294 Atrous convolution × × ×
295 DeepLab × × ×
296 Open Pose × × ×
297 Parts Affinity Fields × × ×
298 Mask R-CNN × × ×
299 Transformer ×
300 LSTM
301 CEC ×
302 GRU ×
303 双方向 RNN (Bidirectional RNN) ×
304 RNN Encoder-Decoder × ×
305 BPTT ×
306 Attention ×
307 A-D 変換 × × ×
308 パルス符号変調器 (PCM) × × × ×
309 高速フーリエ変換 (FFT) × × ×
310 スペクトル包絡 × ×
311 メル周波数ケプストラム係数 (MFCC)
312 フォルマント × × ×
313 フォルマント周波数 × ×
314 音韻 × ×
315 音素 × ×
316 音声認識エンジン × × ×
317 隠れマルコフモデル
318 WaveNet × ×
319 メル尺度 × ×
320 N-gram × × ×
321 BoW (Bag-of-Words) ×
322 ワンホットベクトル
323 TF-IDF
324 単語埋め込み × ×
325 局所表現 × ×
326 分散表現 ×
327 word2vec
328 スキップグラム × × ×
329 CBOW × × ×
330 fastText × ×
331 ELMo ×
332 言語モデル × ×
333 CTC ×
334 Seq2Seq ×
335 Source-Target Attention × ×
336 Encoder-Decoder Attention × ×
337 Self-Attention ×
338 位置エンコーディング × × ×
339 GPT × ×
340 GPT-2 ×
341 GPT-3 × ×
342 BERT
343 GLUE × × ×
344 Vision Transformer × × × ×
345 構文解析 ×
346 形態要素解析 ×
347 DQN
348 ダブル DQN ×
349 デュエリングネットワーク ×
350 ノイジーネットワー ク × ×
351 Rainbow ×
352 モンテカルロ木探索 ×
353 アルファ碁 (AlphaGo)
354 アルファ碁ゼロ (AlphaGo Zero) ×
355 アルファゼロ (Alpha Zero) ×
356 マルチエージェント強化学習 × × ×
357 OpenAI Five × × ×
358 アルファスター (AlphaStar) × ×
359 状態表現学習 × × ×
360 連続値制御 × × ×
361 報酬成形 × × ×
362 オフライン強化学習 × × ×
363 sim2real × × ×
364 ドメインランダマイゼーション × × ×
365 残差強化学習 × × ×
366 Grad-CAM × ×
367 CAM × × × ×
368 エッジAI × × × ×
369 蒸留 ×
370 モデル圧縮 × × × ×
371 量子化 × × ×
372 プルーニング × × × ×
カバー率 81% 52.6% 25.5% 57.2%

ストライド

ストライドとはフィルタをスライドさせる量のことである。
256×256の画像にパディング1をして2×2のフィルタをストライド2で適用すると、適用後の画像サイズはいくつになる?
黒本に計算の演習が載っているので一回くらいは解いていたほうがいいかもしれない。

CycleGANはググっても分からなかったよ。
私の屍を乗り越えて頑張って理解して欲しい。

ディープラーニングの社会実装に向けて

No. キーワード 公式 白本 黒本 緑本
373 AI による経営課題の解決と利益の創出 × × × ×
374 法の順守 × × × ×
375 ビッグデータ × × ×
376 IoT × × ×
377 RPA × × ×
378 ブロックチェーン × × × ×
379 CRISP-DM × × ×
380 MLOps × × ×
381 BPR × ×
382 クラウド × ×
383 Web API × × ×
384 データサイエンティスト × × ×
385 プライバシー・バイ・デザイン × ×
386 オープンデータセット × ×
387 個人情報保護法
388 不正競争防止法 ×
389 著作権法
390 特許法 × ×
391 個別の契約 × × × ×
392 データの網羅性 × × × ×
393 転移学習 ×
394 サンプリング・バイアス × ×
395 産学連携 × × ×
396 オープン・イノベーション × × ×
397 AI・データの利用に関する契約ガイドライン × × ×
398 アノテーション × × ×
399 匿名加工情報
400 カメラ画像利活用ガイドブック × × ×
401 ELSI × ×
402 ライブラリ × × ×
403 Python × × ×
404 Docker × × ×
405 Jupyter Notebook × ×
406 説明可能 AI (XAI)
407 フィルターバブル ×
408 FAT × ×
409 PoC × × ×
410 著作物 × ×
411 データベースの著作物 × ×
412 営業秘密 ×
413 限定利用データ ×
414 オープンデータに関する運用除外 × × × ×
415 秘密管理 × ×
416 個人情報 ×
417 GDPR ×
418 十分性制定 × × ×
419 敵対的な攻撃(Adversarial attacks) ×
420 ディープフェイク × ×
421 フェイクニュース × × ×
422 アルゴリズムバイアス × × ×
423 ステークホルダーのニーズ × × × ×
424 コーポレートガバナンス × × ×
425 内部統制の更新 × × ×
426 シリアス・ゲーム × × × ×
427 炎上対策とダイバーシティ × × × ×
428 AI と安全保障・軍事技術 × × × ×
429 透明性レポート ×
430 よりどころとする原則や指針 × × × ×
431 Partnership on AI × × × ×
432 運用の改善やシステムの改修 × × × ×
カバー率 73.3% 13.3% 21.7% 41.7%

公式テキスト以外のテキストの壊滅的状況!
法律や倫理の問題が難しいという声もよく聞くが、(テキストに出てこないので分からないのは)それはそうという感じである。

この辺は白本はスカスカだ。
黒本に有用そうな問題が多く出ているので、法律関係は黒本で対策しよう。

カメラ画像利活用ガイドブックは絶対に目を通しておくべきである。

数理・統計

No. キーワード 公式 白本 黒本 緑本
433 統計検定3級程度の基礎的キーワードと計算問題

さらっと一行で凄まじいことが書いてある。
「計算問題」と書いてあるので、分散や標準偏差の計算くらいは出来るようになっていたほうがいいかもしれない。

まとめ

カバー率をまとめると、以下のようになった。

No. 大項目 公式 白本 黒本 緑本
1 人工知能とは 76.9% 84.6% 53.8% 61.5%
2 人工知能をめぐる動向 77.8% 53.7% 33.3% 42.6%
3 人工知能分野の問題 86.7% 80% 53.3% 60%
4 機械学習の具体的手法 71.4% 59.3% 38.5% 63.7%
5 ディープラーニングの概要 67.4% 78.3% 43.5% 67.4%
6 ディープラーニングの手法 81% 52.6% 25.5% 57.2%
7 ディープラーニングの社会実装に向けて 73.3% 13.3% 21.7% 41.7%
8 統計検定3級程度の基礎的キーワードと計算問題 - - - -

公式テキストは公式なだけあって優秀な結果となった。
白本もかなり良い。

次に、公式テキストに載っていないキーワードを抽出してみる。

No. 大項目 公式 白本 黒本 緑本
2 エージェント ×
12 特徴量 ×
13 ディープブルー × ×
28 知識ベースの構築とエキスパートシステム × × × ×
32 概念間の関係 (is-a と part-of の関係) × × × ×
33 オントロジーの構築 × × × ×
37 イライザ効果 × × ×
42 has-a の関係 × × × ×
52 スパムフィルター × × × ×
55 人間の神経回路 × × × ×
63 パターン認識 × × × ×
64 画像認識 × ×
65 特徴抽出 × × × ×
66 一般物体認識 × × ×
67 OCR × × × ×
75 特徴量設計 ×
79 機械翻訳 × ×
92 半教師あり学習 ×
96 アンサンブル学習 ×
111 疑似相関 × × × ×
112 重回帰分析 × ×
113 AdaBoost × × ×
114 多クラス分類 × × × ×
115 プルーニング × × × ×
116 k-means 法 ×
121 クラスタリング ×
131 次元削減 ×
135 価値関数 × × ×
150 モデルの解釈 × × × ×
151 モデ ルの選択と情報量 × × × ×
156 過学習 ×
157 未学習 × × × ×
159 L0 正則化 × × × ×
160 L1 正則化 × × ×
161 L2 正則化 × × ×
164 オッカムの剃刀 × × × ×
165 赤池情報量基準 (AIC) × × × ×
166 汎化性能 × ×
167 平均二乗誤差 × × ×
168 偽陽性-偽陰性 × × ×
169 第一種の過誤-第二種の過誤 × × × ×
170 訓練誤差 × × ×
171 汎化誤差 × ×
177 信用割当問題 × × × ×
188 TPU × ×
193 Leaky ReLU 関数 × × × ×
197 交差エントロピー × × × ×
199 エポック ×
204 モーメンタム × ×
211 ハイパーパラメータ × ×
212 ランダムサーチ × × ×
213 グリッドサーチ × ×
214 確率的勾配降下法 ×
215 最急降下法 × × ×
216 バッチ学習 ×
217 ミニバッチ学習 ×
218 オンライン学習 × ×
219 データリーケージ × × × ×
223 過学習 ×
224 アンサンブル学習 ×
237 畳み込み × ×
238 フィルタ ×
241 グローバルアベレージプーリング (GAP) × × ×
245 CutMix × × × ×
253 局所結合構造 × × ×
254 ストライド × ×
255 パディング ×
268 マルチタスク学習 × × × ×
282 矩形領域 × × × ×
290 SegNet × × ×
298 Mask R-CNN × × ×
307 A-D 変換 × × ×
308 パルス符号変調器 (PCM) × × × ×
309 高速フーリエ変換 (FFT) × × ×
316 音声認識エンジン × × ×
318 WaveNet × ×
319 メル尺度 × ×
328 スキップグラム × × ×
329 CBOW × × ×
344 Vision Transformer × × × ×
345 構文解析 ×
346 形態要素解析 ×
367 CAM × × × ×
368 エッジAI × × × ×
370 モデル圧縮 × × × ×
371 量子化 × × ×
372 プルーニング × × × ×
373 AI による経営課題の解決と利益の創出 × × × ×
374 法の順守 × × × ×
378 ブロックチェーン × × × ×
390 特許法 × ×
391 個別の契約 × × × ×
392 データの網羅性 × × × ×
402 ライブラリ × × ×
403 Python × × ×
414 オープンデータに関する運用除外 × × × ×
423 ステークホルダーのニーズ × × × ×
426 シリアス・ゲーム × × × ×
427 炎上対策とダイバーシティ × × × ×
428 AI と安全保障・軍事技術 × × × ×
430 よりどころとする原則や指針 × × × ×
431 Partnership on AI × × × ×
432 運用の改善やシステムの改修 × × × ×

公式テキストのみで勝負に挑みたい人は、上記のキーワードをググっておくと良さそうだ。


とは言ったものの、公式テキストだけでは問題演習量が圧倒的に不足するため、何らかの問題集をやってoutputを鍛えたほうが良いと思われる。
一冊だけ選ぶなら白本である。
黒本はカバー率が低いし、問題のレベルも試験本番より簡単なので微妙。
しかしながら法律関係の問題はしっかりしているため、この分野だけ勉強するために黒本を買うのはアリだと思われる。

緑本は全体的にカバー率が低い結果となった。最も分厚い本なだけに残念である。
CNNとかRNNみたいな、どの本にも載っている内容について詳しく説明した「小学生向け国語辞典」という印象。

13
8
3

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
13
8

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?