0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

【文系向け】G検定チートシート|試験で本当に使えた知識だけ厳選

0
Posted at

はじめに

G検定を受験するとき、120分で約220問を解かなければなりません。1問あたり約30秒。悠長にテキストを引いている暇はありません。

私は文系出身で2026年1月のG検定に合格しましたが、試験直前に自分用の「チートシート」を作ったことが合格の決め手でした。

この記事では、文系の私が本当に試験で使えた知識だけを厳選してまとめます。特に、文系の方がつまずきやすい技術用語を「要するにこういうこと」レベルで整理しています。

AI・ディープラーニングの歴史

試験では歴史の流れを問う問題が頻出します。年代を丸暗記する必要はなく、ブームの流れと特徴を押さえればOKです。

ブーム 時期 キーワード ポイント
第1次AIブーム 1950〜60年代 探索・推論 迷路やパズルは解けるが、現実の問題は解けない(トイプロブレム)
第2次AIブーム 1980年代 エキスパートシステム 専門家の知識をルール化。知識の入力が大変(知識獲得のボトルネック)
第3次AIブーム 2010年代〜 機械学習・深層学習 データから自動で学習。ディープラーニングの登場が転機

よく出るキーワード: ダートマス会議(1956年、「AI」という言葉の誕生)、ELIZA(初期の対話システム)、エキスパートシステム(MYCIN、DENDRALなど)

機械学習の分類

ここは整理して覚えるだけで得点源になります。

教師あり学習

正解データ付きで学習する方法。

手法 一言で言うと 用途
線形回帰 直線で予測 数値の予測(売上予測など)
ロジスティック回帰 確率で分類 2クラス分類(スパム判定など)
決定木 if-thenルールで分岐 分類・回帰
ランダムフォレスト 決定木をたくさん作って多数決 精度向上
SVM(サポートベクターマシン) 境界線を引いて分類 分類(マージン最大化)
k-NN(k近傍法) 近くのデータを見て多数決 分類

教師なし学習

正解データなしで、データの構造を見つける。

手法 一言で言うと
k-means データをk個のグループに分ける
主成分分析(PCA) データの次元を減らす
オートエンコーダ 入力を圧縮→復元してデータの特徴を学ぶ

強化学習

試行錯誤して「報酬が最大になる行動」を学ぶ。AlphaGoが有名。

覚えておくべき用語: エージェント(行動する主体)、環境、報酬、方策(行動の戦略)、Q学習

ニューラルネットワークの基礎

文系が最も苦戦するパートですが、G検定では数式ではなく概念が問われます。

パーセプトロン

  • 入力に重みをかけて足し合わせ、しきい値を超えたら発火する仕組み
  • 単純パーセプトロンは線形分離しかできない(XOR問題が解けない)
  • → 多層パーセプトロンで解決

活性化関数(よく出る)

関数名 特徴
シグモイド 0〜1の値を出力。勾配消失しやすい
ReLU 0以下は0、0以上はそのまま。今の主流
softmax 全出力の合計が1になる。多クラス分類の最終層
tanh -1〜1の値を出力

誤差逆伝播法(バックプロパゲーション)

  • 出力の誤差を逆方向に伝えて、重みを調整する方法
  • 文系向けの理解:「答え合わせをして、間違えた原因を遡って修正する」

勾配降下法

  • 損失(誤差)が最小になるように重みを少しずつ調整する
  • 文系向けの理解:「山の一番低いところを探して、坂を少しずつ下る」

派生手法: SGD(確率的勾配降下法)、Adam(今よく使われる最適化手法)

ディープラーニングの代表的手法

CNN(畳み込みニューラルネットワーク)

  • 画像認識に強い
  • 畳み込み層 → プーリング層 → 全結合層 の構造
  • 代表モデル:LeNet、AlexNet、VGG、GoogLeNet、ResNet

RNN(再帰型ニューラルネットワーク)

  • 時系列データ・自然言語に強い
  • 過去の情報を記憶して次の処理に使う
  • 問題点:長い系列だと勾配消失する
  • LSTMGRU で解決

GAN(敵対的生成ネットワーク)

  • 画像生成に使われる
  • 生成器(Generator)と識別器(Discriminator)が競い合って学習
  • 偽物を作る側と見破る側の対決

Transformer / Attention

  • 自然言語処理の革命
  • 「注意すべき部分」に重みをつけて処理する仕組み
  • BERT(文の理解)、GPT(文の生成)の基盤
  • ChatGPTはGPTベース

過学習と正則化

用語 意味
過学習(オーバーフィッティング) 訓練データに特化しすぎて、未知のデータに対応できない
ドロップアウト 学習中にランダムにノードを無効化して過学習を防ぐ
正則化(L1/L2) 重みにペナルティを加えて、モデルをシンプルに保つ
Early Stopping 検証データの誤差が増え始めたら学習を止める
データ拡張 画像を回転・反転させてデータを水増し

AI倫理・法律(文系の得点源)

よく出る法律・ガイドライン

名称 ポイント
個人情報保護法 個人を特定できる情報の取り扱いルール
GDPR(EU一般データ保護規則) EU市民のデータ保護。忘れられる権利、データポータビリティ
AI原則(内閣府) 人間中心、公平性、透明性、プライバシーなど7原則
著作権法 AI学習のためのデータ利用は原則OK(30条の4)、生成物の著作権は要検討

重要な概念

  • 公平性(Fairness): AIが特定の属性(人種、性別等)で差別的な判断をしないこと
  • 説明可能性(Explainability): AIの判断理由を人間が理解できること
  • トロッコ問題: 自動運転における倫理的ジレンマ
  • フレーム問題: AIが無限の可能性を考慮しきれない問題

試験当日のコツ

  1. わからない問題は即スキップ(30秒ルール)
  2. 検索の準備: オンライン受験なので検索可能。ただし検索に頼りすぎると時間切れ
  3. 消去法を活用: 明らかに違う選択肢を消してから考える
  4. 最後に見直し: マークし忘れがないか確認

おすすめの学習リソース

  • G検定対策ドットコム: 1,000問以上の練習問題が無料で解ける。隙間時間の学習に最適
  • JDLA公式サイト: 試験の最新情報を確認
  • 公式テキスト(白本): 全体像の把握に
  • 問題集(赤い本/黒本): アウトプット用に必須

まとめ

このチートシートは、文系出身の私が実際の試験で「これだけ押さえておけばよかった」と感じた内容を凝縮したものです。完璧に網羅しているわけではありませんが、文系の方が最低限押さえるべきポイントはカバーしています。

G検定は「広く浅く」が求められる試験です。全分野をまんべんなく押さえて、得意分野で確実に得点しましょう。

この記事が参考になったら、ストックやいいね(LGTM)をお願いします!

0
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?