#はじめに
2021年第1回 3/19 のG検定を受験するにあたり、簡単にですがまとめて見ました。
2021年 4月1日に無事合格したので、参考になればと思い公開します。
私が行った対策としては、画像系はある程度は理解しているのでそこまで注力せず、
人名や他分野を中心に勉強しました。実際に勉強した時間は、3日ぐらいです。
使用した問題集は、以下のものです。
勉強法としては、問題集を解いてわからないとこや曖昧なところを調べたぐらいです。
あとは、公式テキストを一周読みました。
実際の試験は、問題集を解いたからと解ける感じではなかったです。
根本的な理解が必要ですが、そこまで深いところまでは聞かれません。
広く浅くの知識が求められるように感じました。また、試験には思ったより人名は出題されませんでした。
#自分メモ
###シンギュラリティに対する見解
シンギュラリティ(技術的特異点) : AIなどの技術が自ら人間より賢い知能を生み出す事が可能になる時点
- レイ・カーツワル : シンギュラリティは2045年到来する
- ヒューゴ・デ・ガリス : シンギュラリティは21世紀の後半に到来し、その時の人工知能は人間の知能の1兆の1兆倍になる
- イーロン・マスク : シンギュラリティの到来に危機感を持ち、非営利のAI研組織OpenAIを設立
- オレン・エツィオー二 : たとえば100万年後、特異点を迎える可能性はあります。けれど賢いコンピュータが世界制覇するという終末論的構想は「馬鹿げている」としかいいようがない
- ヴァーナー・ヴァンジ : シンギュラリティは「機械が人間の役立つふりをしなくなること」
- スティーブン・ホーキング : 「AIの完成は人類の終焉を意味するかもしれない」と述べた
###重要な人名
- アーサー・サミュエル : 機械学習を「明示的にプログラムしなくても学習する能力をコンピュータに与える分野」
- アラン・チューリング : 人工知能の判定テストであるチューリングテストを考案
- アンドリュー・ン : courseraの設立
- イアン・グッドフェロー : GANを考察
- ジェフリー・ヒントン : ILSVRC2012で深層学習を使って優勝。Googleに招かれた。
- ジョセフ・ワイゼンバウム : 世界初のチャットボットELIZAを制作
- ジョン・サール : 強いAIと弱いAIという言葉を作った
- ジョン・マッカーシー、パトリック・ヘイズ : ダートマス会議にて人工知能という言葉を初めて使用(1956)。フレーム問題を提唱。
- スティーブン・ハルナッド : シンボルグラウンディング問題を提唱
- ダニエル・デネット :
- ヤン・ルカン : GANを「機械学習において、この10年間で最も面白いアイデア」と形容。Facebookに招かれる。LeNetを考案。
- ヨシュア・ベンジオ : Deep Learningの父と呼ばれる。
###なぜ今までAIが実現しなかったか
- どこまで知識を書いても書ききれないという問題
- フレーム問題
- シンボルグラウンディング問題
- 特徴量設計は人間が行わなければならない
人工知能(AI) : コンピュータによる知的な情報を処理システムを設計、または実現するための研究分野
機械学習(ML) : 人間の学習能力、予測能力をコンピュータで実現しようとする技術や手法の総称
深層学習(DL) : Deep Neural Networkを用いて学習を行う機械学習のアルゴリズム
###人工知能分野の問題
####トイ・プロブレム(おもちゃの問題)
- 本質を損なわない程度の問題を簡略化。問題の本質理解。複数の研究者がアルゴリズムを性能比較。
- 我々が普段直面するような現実世界の問題→トイ・プロブレムよりずっと複雑
#####フレーム問題(ジョン・マッカーシーとパトリック・ヘイズ)
- 今しようとしていることに関係のある事柄だけを選び出す事が実は非常に難しい。
- やろうとしていることが限定されている人工知能ではこのフレーム問題は生じない
#####シンボルグラウンディング問題(スティーブン・ハルナッド)
- 記号とその表現を結びつけるのが困難という問題
#####チューリングテスト(アラン・チューリング)
- 別の場所にいる人間がコンピュータと会話をし、相手がコンピュータだと見抜けなけばコンピュータには知能があるとする
1996:ジョセフ・ワイゼンバウムによってELIZA(イライザ)が開発
#####強いAIと弱いAI(ジョン・サール)
- 強いAI : 本物の心を持つ人工知能はコンピュータで実現できる
- 弱いAI : AIは便利な道具であれば良い
*中国語の部屋
###AIブームの到来と終焉
AIブーム | 到来のきっかけ | 終焉のきっかけ |
---|---|---|
第一次 | 推論と探索 | トイ・プロブレムしか解けない |
第二次 | エキスパートシステム | 専門家の知識は膨大であり、定式化も難しかった |
第三次 | 機械学習と深層学習 |
MYCIN(マイシン) : 抗生物質を処方するAI
DENDRAL(デンドラム) : 有機化合物の特定を行う
###強化学習
- エージェント - : ある環境で動くプレイヤー
- 状態 : エージェントが置かれている環境
- 行動 : エージェントがとる行動
- 収益 : エージェントが行動することにより得られる評価値
- 価値関数 : 将来的に得られる収益の期待値を表す関数
- 方策 : ある状態の時、どの行動を取るべきかを示す関数。決定的に行動を決めるものと確率的に決めるものがある。
- Deep Q-Network (DQN) : 価値関数の計算を近似計算するディープニューラルネット。DQNを用いる強化学習を深層強化学習と呼ぶ。
*強化学習において、エージェントの目的は収益を最大化する方策を獲得すること。
###その他
-
セマンティックウェブ : 情報リソースに意味を付加することで、コンピュータで高度な意味処理を実現する
-
意味ネットワーク : 単語同士の意味関係をネットワークによって表現する
-
統計的自然言語処理 : 言語処理に確率論的あるいは統計学的手法を用いる技術
-
エキスパートシステム : 「専門家の知識を計算機に移植する」というモチベーションで実現されるAIのことを指す。各分野におけるスペシャリストの経験やノウハウを知識工学の視点から解析し、誰もが使える人工知能として活用するもの。
(-) 専門家からヒアリングして知識を取り出す必要があるので多くのリソースが必要
(-) 知識の数が増えることで、知識の品質管理を行うことが必要 -
イライザ効果 : ロボットが相手の発言を理解しているわけではないが、あたかも本物の人間と対話しているような錯覚に陥ること。
-
AI効果 : 人工知能の原理がわかると「単純な自動化である」とみなしてしまう人間の心理のこと。
-
ナレッジエンジニア : AIを応用したシステム構築を専門とする技術者。
-
ロボティクス : 「ロボットに関連する一連の研究分野」
-
ロボットの動作制御➡︎モンテカルロ法、Q学習
-
Q学習 - ある行動の良さを学習する強化学習手法
- 表現学習 : データから低次元の特徴を学習する学習
- 一気通貫学習 : ロボットの一連の動作を1つのDeep Neural Networkで実現しようとする
- マルチモーダル情報処理 : 五感や体性感覚といった複数の感覚の情報を組み合わせて処理すること
- バーニーおじさんのルール : 学習には調整が必要なパラメータ数の約10倍のデータが必要
- ノーフリーランチ定理 : 「あらゆる問題に対して万能なアルゴリズムは存在しない」
- みにくいアヒルの子定理 : MLにおける定式化によって「普通のアヒル」と「みにくいアヒル」の区別はできないという定理
- モラベックのパラドックス : 機械に取っては、高度な推論よりも1歳児レベルの知恵や運動スキルを身につける方が遥かに難しいというパラドックス
- 停留点 : 局所最適解でも大域最適解でもないが勾配が0になる点
- 鞍点 : 停留点のうちある方向から見ると極小値だが別の方向から見ると極大値になる点
- アンサンブル学習 : 複数のモデルを作り、分類は多数決。回帰は一般的に平均を結果とする
- バギング : 各モデルを各モデルを並列に学習させる
- ブースティング : 各モデルを逐次的に学習させる
-
幅優先探索 : あるノードからつながっている隣のノードをすべて探索し、続いてさらにつながっている隣のノードを探索。最短距離でゴールにたどり着く解を必ず見つけられる。途中で立ち寄ったノードをすべて記憶するため、メモリ不足になる。
-
深さ優先探索 : あるノードから行き止まりのノードまでいったん探索を行い、行き止まりにたどり着いたら1つ手前のノードに戻って次の行き止まりまで探索を行うということを繰り返す。メモリはあまり食わないが、解は最短の保証はなし。
-
SHRDLU(シャードルー) : 1970年にスタンフォード大によって開発されたシステムで、英語による指示を受けつけ、コンピュータ画面に描かれる「つみきの世界」に存在する様々な物体を動かすことができた。
-
Cycプロジェクト : 1984, すべての一般常識をコンピュータに取り込もうとしたプロジェクト。2001年からはOpenCycとして公開
-
Auto Encoder(自己符号化器) : 入力層 ➡︎ 隠れ層(入力の情報を圧縮されたもの) ➡︎ 出力層
-
積層オートエンコーダー : 入力層に近い方から順番に学習させるという逐次的な方法を取る。これによりそれぞれで隠れ層の重みが調整されるので、全体で見ても重みが調整されたネットワーク。
-
教師なし学習 : 入力データにある構造や特徴を掴むためのもの。ex) k-means, PCA
-
パーセプトロンは重みを調整することによって様々な識別器になる
-
パーセプトロンを使って溶ける問題は「直線を使って分離できるもの」➡︎線形分離可能(XORだけ線形分離不可能)
-
パラメータ : 学習前にエンジニアが調整しなければならない変数
-
ハイパーパラメータ : 学習によって最適化する変数のこと
#####決定木
- 不純度が最も減少(情報利得が最も増加)するように条件分岐を作りデータをふりわける。それを繰り返す。
(+) データのスケールを事前に揃えておく必要なし
(+) 分析結果の説明容易
#####ロジスティック回帰
- 線形回帰を分類問題に応用したアルゴリズム
① 対数オッズ比と呼ばれる値を重回帰分析により予測
② 対数オッズにロジット変換を施すことでクラスiに属する確率 Piの予測値を求める
③ 各クラスに属する確率を計算し、最大確率を実現するクラスがデータに属するクラスと予測
#####KNN法 = 多数決
- 各クラスのデータ数の偏りがない、各クラスがよく分かれている 時しか精度が上がらない
- (-) 予測時は、予測したいデータと全訓練データとの距離を測る必要があるため、訓練データが多いと計算に時間がかかる
- 協調フィルタリング : アイテム利用者の行動履歴を元にレコメンドする方法
- 内容ベースフィルタリング : アイテムの特徴ベクトルで類似度でソートしてレコメンド
#終わりに
試験では、問題数がかなり多いのである程度早めに問題を解くことをオススメします。
とにかく広く浅く勉強することがコツです。時間とお金に余裕が出たらE資格も取得できたらと思います。