Help us understand the problem. What is going on with this article?

【G検定対策】ディープラーニング/人工知能界隈によく出る定理・原理まとめ

0.はじめに

2018/11/24(土)にJDLA Deep Learning for GENERAL 2018 #2(G検定)を受験し、2018/11/30(金)に無事合格しました!
公式問題集や実際に試験に出てくる用語を各AIブームごとにまとめてみます。
https://www.jdla.org/business/certificate/

G検定とは?
概要:ディープラーニングを事業に活かすための知識を有しているかを検定する
受験資格:制限なし
試験概要:120分、多肢選択式の知識問題226問、オンライン実施(自宅受験)
出題問題:シラバスより出題
受験料(※):12,960円(税込) / 学生5,400円(税込)
試験日:2018年11月24日(土) 13:00開始
申込期間:2018年10月25日(木) 13:00 〜 11月15日(木) 24:00

1.第1次&2次AIブーム

トイ・プロブレム

第一次ブームの推論と探索では一見知的な活動を行えるようになったが、
あくまで適用範囲はルールとゴールが厳密に決まっている枠組みの中での話であり、
ルールが記述しきれず、またルールやゴールが曖昧である現実世界では全く役に立たないということ。
https://en.wikipedia.org/wiki/Toy_problem

フレーム問題

フレーム問題(フレームもんだい)とは、人工知能における重要な難問の一つで、有限の情報処理能力しかないロボットには、現実に起こりうる問題全てに対処することができないことを示すものである。
https://ja.wikipedia.org/wiki/%E3%83%95%E3%83%AC%E3%83%BC%E3%83%A0%E5%95%8F%E9%A1%8C

ベイズの定理

条件付き確率に関して成り立つ統計学の定理
https://ja.wikipedia.org/wiki/%E3%83%99%E3%82%A4%E3%82%BA%E3%81%AE%E5%AE%9A%E7%90%86

2.第3次AIブームから登場

バーニーおじさんのルール(定理)

機械学習において学習に必要なデータ数は説明変数の数の10倍必要。
検索しても誰なのかよくわからない。

モラベックのパラドックス

人工知能 (AI) やロボット工学の研究者らが発見したパラドックス。
伝統的な前提に反して「高度な推論よりも感覚運動スキルの方が多くの計算資源を要する」というもの。
モラベックさんによると、「コンピュータに知能テストを受けさせたりチェッカーをプレイさせたりするよりも、1歳児レベルの知覚と運動のスキルを与える方が遥かに難しいか、あるいは不可能である」とのこと。
https://ja.wikipedia.org/wiki/%E3%83%A2%E3%83%A9%E3%83%99%E3%83%83%E3%82%AF%E3%81%AE%E3%83%91%E3%83%A9%E3%83%89%E3%83%83%E3%82%AF%E3%82%B9

ノーフリーランチ定理

「ある領域の問題」に対する最適化アルゴリズムは、その特徴や癖を事前知識としたりして、その領域に特化したものにせねばならない。
「あらゆるタスク万能な機械学習モデルは存在しない」ということ。
https://ja.wikipedia.org/wiki/%E3%83%8E%E3%83%BC%E3%83%95%E3%83%AA%E3%83%BC%E3%83%A9%E3%83%B3%E3%83%81%E5%AE%9A%E7%90%86

次元の呪い

空間の次元が増えるのに対応して問題の算法が指数関数的に大きくなるということ。
https://ja.wikipedia.org/wiki/%E6%95%99%E5%B8%AB%E3%81%82%E3%82%8A%E5%AD%A6%E7%BF%92

シンボルグラウディング問題

特に、自然言語に代表される「記号Jに対応する表現がどのようなものであり、どのように獲得されるのかという問題は「シンボルグラウンディング問題」と呼ばれ、AIの歴史の中で、解決が困難とされてきた課題の一つ。
https://ja.wikipedia.org/wiki/%E3%82%B7%E3%83%B3%E3%83%9C%E3%83%AB%E3%82%B0%E3%83%A9%E3%82%A6%E3%83%B3%E3%83%87%E3%82%A3%E3%83%B3%E3%82%B0%E5%95%8F%E9%A1%8C

トロッコ問題

倫理学上のジレンマ問題。
暴走するトロッコの軌道上に5人の作業員がいて、そのまま放っておけば5人は轢死(れきし)する。
自分が分岐器を作動させれば、トロッコは別の軌道に入るが、その先にも1人の作業員がいる。
この場合、「自分」はどのような選択をすればよいかという問い。特定の人を助ける代わりに、別の人を犠牲にしてもよいかという倫理学上のジレンマを扱っている。
自動運転など、人工知能分野においても、どうあるべきか多くの議論がなされている。
https://ja.wikipedia.org/wiki/%E3%83%88%E3%83%AD%E3%83%83%E3%82%B3%E5%95%8F%E9%A1%8C

醜いアヒルの子定理

醜いアヒルの子を含む n匹のアヒルがいるとする. このとき,醜いアヒルの子と普通のアヒルの子の類似性は、任意の二匹の普通のアヒルの子の間の類似性と同じになるという定理.
http://ibisforest.org/index.php?%E9%86%9C%E3%81%84%E3%82%A2%E3%83%92%E3%83%AB%E3%81%AE%E5%AD%90%E3%81%AE%E5%AE%9A%E7%90%86

参考文献

  • 人工知能は人間を超えるか ディープラーニングの先にあるもの
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
Comments
Sign up for free and join this conversation.
If you already have a Qiita account
Why do not you register as a user and use Qiita more conveniently?
You need to log in to use this function. Qiita can be used more conveniently after logging in.
You seem to be reading articles frequently this month. Qiita can be used more conveniently after logging in.
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away