0
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

G検定2020#2のお勉強ログ

Last updated at Posted at 2020-07-04

とうとうG検定当日ですね。学生の時を思い出す前日からの詰め込み作業をしています。
試験直前ですが、勉強内容をログしておきます。
それでは皆さんgood luck!

##試験後、追記
2020#2試験を受けてみて
白本、黒本、study-AIの模試の勉強では到底カバーできない内容でした・・・。
特に法律関係の問題が多く、最新のAI白書をしっかり勉強していないと解けない問題が多かった感じですかね?
あと模試に比べて選択肢が文章や不適な内容を選ばせる問題が多く感じました。

######運営の思惑を邪推したのでMEMO
①JDLAの半額キャンペーン→一般層から受験者数増やす→難易度高めて合格者振り落とし→再受験させトータルの受験料/合格者人数を高める
②JDLAの半額キャンペーン→難度高いため、白本、黒本じゃカバー無理→最新のAI白書の売り上げ増を狙う
③最近、非公式のカンニングペーパービジネスが乱立→基本、重要語と説明の組み合わせ→カンニングペーパーを使っても時間がかかる問題を増加(選択肢が文章や不適な内容を選ばせる問題)

確かに最新の法律関係とかによく知っていることが、G検定保有者に必要なことかもしれません。
高難度化は今後の受験者数を制限しそうで門戸狭めそうかな?とも思いましたが、
下手ななんちゃってDSを増やさない方向性なのかもしれませんねー。知らんけど。

以上、お疲れ様でした!!

#-重要語句-
ReLU = 正規化線形関数

日本 - 新産業構造ビジョン
英国 - RAS 2020 戦略
ドイツ - デジタル戦略2025
中国 - インターネットプラスAI3年行動実施法案

#-不正解問題-一問一答形式
ディープニューラルネットワーク(DNN)に対しては,ランダムに一定の割合のノードを削除して学習を行う(ウ)が有効とされている.
####ドロップアウト

大規模なディープニューラルネットワーク(DNN)の学習では学習するべきパラメータ数が膨大となるため,処理の高速化が必要となる.2012 年に提案された分散並列技術である(ア)
####DistBelief

大規模なニューラルネットワークの学習が困難となる原因の一つとして,ある層の入力がそれより下層の学習が進むにつれて変化する
####内部共変量シフト

畳み込みニューラルネットワークは,畳み込み層とプーリング層を積み上げた構成をしている.画像データを用いた場合,畳み込み層では,出力画像のサイズを調整するために元の画像の周りを固定の値で埋める
####パディング

プーリング層では畳み込み層の出力を圧縮するプーリングを行う,(イ)などの手法がある.
####誤差プーリング

近年は,ハイパーパラメータを含め最適化問題とする(ウ)が効率的なチューニング方法として注目をあびている.
####ベイズ最適化

自己符号化器を多層化すると,ディープニューラルネット同様に勾配消失問題が生じるため,複雑な内部表現を得ることは困難であった.この問題に対して 2006 年頃に(エ)らは,単層の自己符号化器に分割し入力層から繰り返し学習させる(オ)を積層自己符号化器に適用することで,汎用的な自己符号化器の利用を可能とした。また,自己符号化器の代表的な応用例として(カ)がある.
####Hinton / 層ごとの貪欲法 / 仮想計測

ディープニューラルネットワーク(DNN)のパラメータ最適化手法として(ア)などの勾配降下法が適用される
####確率的勾配降下法

勾配降下法の問題解決に勾配の平均と分散をオンラインで推定し利用する(エ)が利用されてきた.
####Adam

ディープラーニングのモデルは,確定的モデルと確率的モデルに分類することができる.これらのモデルの例として,確定的モデルに(ア)や確率的モデルに(イ)がある.
####深層信念ネットワーク / 深層ボルツマンマシン(​Boltzmann machine​)

(ア)はディープラーニングにおける重要な課題の一つであり,学習済みのディープニューラルネットモデルを欺くように人工的に作られたサンプルのことである.サンプルに対して微小な摂動を加えることで,作為的にモデルの誤認識を引き起こすことができる.
####adversarial example

内部共変量シフトとは

####入力の分布が学習途中で大きく変わってくる問題

確率的勾配法はディープラーニングにおいて最もよく知られる最適化アルゴリズムであり,いくつかの改善を加えたものが広く使われている.例えば,以前に適用した勾配の方向を現在のパラメータ更新にも影響させる(ア)という手法

####モメンタム

ディープラーニングの技術を利用したシステムを開発する際,複雑な処理が比較的簡潔に記述できることから,既存のフレームワークを利用することも多い.ディープラーニングのフレームワークは複数あり,google 社提供の(ア)や(ア)のラッパーとして機能する(イ),国内企業である PreferredNetworks 社で開発された(ウ)などがある.また,(エ)は(ウ)と同じ Define-by-Run 方式を採用している.

####TensorFlow / Keras / Chainer / PyTorch

活性化関数とは,ニューロンの出力に何らかの非線形な変数を加える関数である.単純パーセプトロンの出力層では(ア)が用いられる

####ステップ関数

出力層では出力の総和が 1 になるため確率的な解釈が可能になる(エ)がよく用いられる.

####ソフトマックス関数

大きなニューラルネットワークなどの入出力をより小さなネットワークに学習させる技術として,(ア)がある.(ア)とは,すでに学習されているモデル(教師モデル)を利用して,より小さくシンプルなモデル(生徒モデル)を学習させる手法である

####蒸留

畳み込みニューラルネットワークの(ア)のパラメータ数は(イ)と比較して極めて少ない.これは(ウ)によって(エ)ため,パラメータ数が減り,計算量が少なくなるためである.

####畳み込み層 / 全結合層 / 重み共有

1950 年代頃よりコンピューターの使用が開始されると,計算だけでなく思考機械の研究が始まった.人工知能研究の変遷として,適切な選択肢を 1 つ選べ.

1.パターン処理 -> 記号処理 -> 知識の蓄積
2.記号処理 -> 知識の蓄積 -> パターン処理
3.知識の蓄積 -> 記号処理 -> パターン処理

####正解:1

狭い意味でのディープラーニングとは層の数が深いニューラルネットワークを用いた機械学習である.複数の層を持つ階層的ニューラルネットワークは,1980 年代には(ア)という方法がすでに提案されていたが,現在ほど多くの層を持った学習をすることはできなかった

####誤差逆伝播学習

良い表現として,ディープラーニングのアプローチは(ア), (イ),(ウ)に着目している.このことから,(ア),(イ),(ウ)の事前知識を適切に活用できるなら,表現学習は必ずしも層の数が多いニューラルネットワークの形をしていなくてもよいことになる.

####・説明要因の階層的構造
####・タスク間の共通要因
####・要因の依存の単純性

AttentionGANは(イ)と(ウ)から構成されており,(イ)は(エ)を騙すような画像を出力し,(ウ)は(イ)から出力された画像と本物の画像とを分類するようにそれぞれ学習する.このように学習することで,(イ)は適切な画像を出力することが可能となる.

####画像生成器 / 画像識別器 / 画像分類器

従来は,現在のディープラーニングのように入力から出力までの処理を一括で行うことができない情報を扱うことがあった.そうした場合,まず用意したデータをある手法を用いて加工し,それが入力値となり,別の手法を用いて処理を行いといった,ステップバイステップの学習が必要だった.しかし,ディープラーニングの登場によって,処理を複数回に分けて行う必要がなくなったこのような,ディープラーニングにおいて重要な方法論のことを(ア)と呼ぶ.

####End to End Learning

1990 年代の音声認識は(ア)による,音自体を判別するための音響モデルと,(イ)による語と語のつながりを判別する言語モデルの両方でできている.しかし,ディープラーニングの登場,とりわけ(ウ)の登場により,音響特徴量から音素,文字列,更には単語列に直接変換する End to End モデルというアプローチを取ることが可能になり,人的に前処理を行わなくても解析することが可能となった.

####隠れマルコフモデル(HMM) / N グラム法 / RNN

ディープラーニングの学習の目的は,損失関数の値をできるだけ小さくするパラメータを見つけることである.このような問題を解くことを(ア)という.このパラメータを見つけるアルゴリズムとして有名なのは(イ) である.ただ,(イ)は対象の関数の形がある分布や方向に依存すると非効率な経路でパラメータを探索してしまい,学習に時間がかかってしまうというデメリットがある.そこで,現在では(イ)の欠点を改善するために(ウ) などのアルゴリズムが使用されている.

####最適化 / SGD / Adam

ボードゲームや自動運転,またロボットの歩行動作などに活用されている.代表的なアルゴリズムに (イ)があげられる.

####Q学習

強化学習の課題として,主に学習時間や(エ)などが挙げられる.理論的には無限に学習するが,実世界では全てが限られている.ロボットの場合,無限の試行を繰り返すことができず,損耗し,実験の続行が困難になる.そこで人間側がタスクを上手く切り分けてやさしいタスクからの学習をすることが期待される.また(エ)に関して,例として,2 体のロボット同士で学習を開始させようとすると,お互いに初期状態であるタスクについての何も知識がない状態だと,学習過程の不安定化が見られる.現在はこれに対応するために逆強化学習やディープラーニングの技術を適用した(オ)などが適用され始めている.

####マルチエージェント応用 / DQN

順序を持たない名義特徴量のカテゴリーデータについては,各変数に対応したダミー変数を新たに作り出す (イ) が有用である.

####ワンホットエンコーディング

既存の学習済みニューラルネットワークモデルを活用する手法に(ア)と(イ)がある.(ア)では,学習済みモデルに対して新たに別の課題を学習させることで,少量のデータセットかつ少ない計算量で高い性能のモデルを得ることができる.また,(イ)は,学習済みの大規模モデルの入力と出力を小規模なモデルの教師データとして利用することで,少ない計算資源で従来のモデルと同程度の性能を実現することが可能となる.

####転移学習 / 蒸留

畳み込みニューラルネットワークの手法について扱う.(ア)は 1998 年に提案された,現在広く使われている CNN の元となるモデルであり,初めて多層 CNN に誤差逆伝播法を適用した手法である.2012 年に提案された(イ)は,画像認識のコンペティション ILSVRC で他手法に圧倒的な差をつけて優勝し,画像認識におけるディープラーニング活用の火付け役となった.しかし,一般に CNN は層を深くすると,パラメータ数が膨大となり学習が困難になってしまう傾向があった.層が深くなってもうまく学習を行うことができるモデルとして,ILSVRC2015 において多くの部門でトップの成績を収めた(ウ)がある.(ウ)は出力を入力と入力からの差分の和で表現したニューラルネットワークモデルである.

####LeNet / AlexNet / ResNet

ディープニューラルネットワーク(DNN)の学習で一般に用いられる正則化の手法に(ア)があり,誤差関数に重みの L2 ノルムを加えることで重みの発散を抑えることができる

####荷重減衰

ディープラーニングの実験に用いられるデータセットについて扱う.(ア)はアメリカの国立標準技術研究所によって提供されている手書き数字のデータベースである.また,スタンフォード大学がインターネット上から画像を集めて分類したデータセットである(イ)は,約 1400 万枚の自然画像を有しており,画像認識の様々なタスクに利用される.

####MNIST / ImageNet

AI が実世界における抽象概念を理解し,知識処理を行う上では,(ア) を通じた高レベルの身体知を獲得し,次に (イ)を通じて言語の意味理解を促し,抽象概念・知識処理へと至るのではないかということが議論されている.

####身体性 / 身体知

0
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?