はじめに
G検定を受験するとき、120分で約220問を解かなければなりません。1問あたり約30秒。悠長にテキストを引いている暇はありません。
私は文系出身で2026年1月のG検定に合格しましたが、試験直前に自分用の「チートシート」を作ったことが合格の決め手でした。
この記事では、文系の私が本当に試験で使えた知識だけを厳選してまとめます。特に、文系の方がつまずきやすい技術用語を「要するにこういうこと」レベルで整理しています。
AI・ディープラーニングの歴史
試験では歴史の流れを問う問題が頻出します。年代を丸暗記する必要はなく、ブームの流れと特徴を押さえればOKです。
| ブーム | 時期 | キーワード | ポイント |
|---|---|---|---|
| 第1次AIブーム | 1950〜60年代 | 探索・推論 | 迷路やパズルは解けるが、現実の問題は解けない(トイプロブレム) |
| 第2次AIブーム | 1980年代 | エキスパートシステム | 専門家の知識をルール化。知識の入力が大変(知識獲得のボトルネック) |
| 第3次AIブーム | 2010年代〜 | 機械学習・深層学習 | データから自動で学習。ディープラーニングの登場が転機 |
よく出るキーワード: ダートマス会議(1956年、「AI」という言葉の誕生)、ELIZA(初期の対話システム)、エキスパートシステム(MYCIN、DENDRALなど)
機械学習の分類
ここは整理して覚えるだけで得点源になります。
教師あり学習
正解データ付きで学習する方法。
| 手法 | 一言で言うと | 用途 |
|---|---|---|
| 線形回帰 | 直線で予測 | 数値の予測(売上予測など) |
| ロジスティック回帰 | 確率で分類 | 2クラス分類(スパム判定など) |
| 決定木 | if-thenルールで分岐 | 分類・回帰 |
| ランダムフォレスト | 決定木をたくさん作って多数決 | 精度向上 |
| SVM(サポートベクターマシン) | 境界線を引いて分類 | 分類(マージン最大化) |
| k-NN(k近傍法) | 近くのデータを見て多数決 | 分類 |
教師なし学習
正解データなしで、データの構造を見つける。
| 手法 | 一言で言うと |
|---|---|
| k-means | データをk個のグループに分ける |
| 主成分分析(PCA) | データの次元を減らす |
| オートエンコーダ | 入力を圧縮→復元してデータの特徴を学ぶ |
強化学習
試行錯誤して「報酬が最大になる行動」を学ぶ。AlphaGoが有名。
覚えておくべき用語: エージェント(行動する主体)、環境、報酬、方策(行動の戦略)、Q学習
ニューラルネットワークの基礎
文系が最も苦戦するパートですが、G検定では数式ではなく概念が問われます。
パーセプトロン
- 入力に重みをかけて足し合わせ、しきい値を超えたら発火する仕組み
- 単純パーセプトロンは線形分離しかできない(XOR問題が解けない)
- → 多層パーセプトロンで解決
活性化関数(よく出る)
| 関数名 | 特徴 |
|---|---|
| シグモイド | 0〜1の値を出力。勾配消失しやすい |
| ReLU | 0以下は0、0以上はそのまま。今の主流 |
| softmax | 全出力の合計が1になる。多クラス分類の最終層 |
| tanh | -1〜1の値を出力 |
誤差逆伝播法(バックプロパゲーション)
- 出力の誤差を逆方向に伝えて、重みを調整する方法
- 文系向けの理解:「答え合わせをして、間違えた原因を遡って修正する」
勾配降下法
- 損失(誤差)が最小になるように重みを少しずつ調整する
- 文系向けの理解:「山の一番低いところを探して、坂を少しずつ下る」
派生手法: SGD(確率的勾配降下法)、Adam(今よく使われる最適化手法)
ディープラーニングの代表的手法
CNN(畳み込みニューラルネットワーク)
- 画像認識に強い
- 畳み込み層 → プーリング層 → 全結合層 の構造
- 代表モデル:LeNet、AlexNet、VGG、GoogLeNet、ResNet
RNN(再帰型ニューラルネットワーク)
- 時系列データ・自然言語に強い
- 過去の情報を記憶して次の処理に使う
- 問題点:長い系列だと勾配消失する
- → LSTM、GRU で解決
GAN(敵対的生成ネットワーク)
- 画像生成に使われる
- 生成器(Generator)と識別器(Discriminator)が競い合って学習
- 偽物を作る側と見破る側の対決
Transformer / Attention
- 自然言語処理の革命
- 「注意すべき部分」に重みをつけて処理する仕組み
- BERT(文の理解)、GPT(文の生成)の基盤
- ChatGPTはGPTベース
過学習と正則化
| 用語 | 意味 |
|---|---|
| 過学習(オーバーフィッティング) | 訓練データに特化しすぎて、未知のデータに対応できない |
| ドロップアウト | 学習中にランダムにノードを無効化して過学習を防ぐ |
| 正則化(L1/L2) | 重みにペナルティを加えて、モデルをシンプルに保つ |
| Early Stopping | 検証データの誤差が増え始めたら学習を止める |
| データ拡張 | 画像を回転・反転させてデータを水増し |
AI倫理・法律(文系の得点源)
よく出る法律・ガイドライン
| 名称 | ポイント |
|---|---|
| 個人情報保護法 | 個人を特定できる情報の取り扱いルール |
| GDPR(EU一般データ保護規則) | EU市民のデータ保護。忘れられる権利、データポータビリティ |
| AI原則(内閣府) | 人間中心、公平性、透明性、プライバシーなど7原則 |
| 著作権法 | AI学習のためのデータ利用は原則OK(30条の4)、生成物の著作権は要検討 |
重要な概念
- 公平性(Fairness): AIが特定の属性(人種、性別等)で差別的な判断をしないこと
- 説明可能性(Explainability): AIの判断理由を人間が理解できること
- トロッコ問題: 自動運転における倫理的ジレンマ
- フレーム問題: AIが無限の可能性を考慮しきれない問題
試験当日のコツ
- わからない問題は即スキップ(30秒ルール)
- 検索の準備: オンライン受験なので検索可能。ただし検索に頼りすぎると時間切れ
- 消去法を活用: 明らかに違う選択肢を消してから考える
- 最後に見直し: マークし忘れがないか確認
おすすめの学習リソース
- G検定対策ドットコム: 1,000問以上の練習問題が無料で解ける。隙間時間の学習に最適
- JDLA公式サイト: 試験の最新情報を確認
- 公式テキスト(白本): 全体像の把握に
- 問題集(赤い本/黒本): アウトプット用に必須
まとめ
このチートシートは、文系出身の私が実際の試験で「これだけ押さえておけばよかった」と感じた内容を凝縮したものです。完璧に網羅しているわけではありませんが、文系の方が最低限押さえるべきポイントはカバーしています。
G検定は「広く浅く」が求められる試験です。全分野をまんべんなく押さえて、得意分野で確実に得点しましょう。
この記事が参考になったら、ストックやいいね(LGTM)をお願いします!