0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

G検定に向けての学習:第1章

Posted at

第1章 人工知能とは

クイックリファレンス

基本概念

  • 人工知能(AI):推論・知識・判断など人間と同じ知的な処理能力を持つ機械(1956年、ダートマス会議で提唱)
  • AI効果:新しいことが実現され原理がわかると、単純化であり知能とは関係ないと思ってしまう現象
  • 強いAI・弱いAI:弱いAI(特定タスク特化)と強いAI(汎用的知能・AGI)の分類(1980年、ジョン・サール提唱)

歴史的出来事

重要人物

  • ジョン・マッカーシー:人工知能という用語を提唱(1956年)
  • アラン・チューリング:チューリングテストを提唱(1950年)
  • ジョン・サール:強いAI・弱いAIの分類を提唱(1980年)
  • スティーブン・ハルナッド:シンボルグラウンディング問題を提唱(1980年代)

技術・手法(概要)

問題・課題

テスト・評価

  • チューリングテスト:AIの判定方法。対話のみで人間かAIかを判断(1950年、アラン・チューリング提唱)

人工知能(Artificial Intelligence)の定義

  • ダートマス会議(1956年):人工知能という用語が初めて使われた会議
  • ジョン・マッカーシー:人工知能という用語を提唱した人物
  • 定義:推論・知識・判断など人間と同じ知的な処理能力を持つ機械

AI効果

何か新しいことが実現され、その原理がわかってしまうと単純化であり、知能とは関係ないと思ってしまうこと。仕組みがわかってしまうと、これは人工知能とは言えないよねと判断してしまうこと。

【補足】

  • 人工知能の進歩に対する心理的な反応
  • 一度理解できると「これは単なる計算で、知能ではない」と感じてしまう現象
  • 例:チェスAIが人間に勝っても「計算が速いだけ」と評価される
  • AIの進歩を過小評価する傾向につながる

人工知能研究とロボット研究

人工知能研究

目に見えない「考える」を実現する

ロボット研究

その結果、動作するものを作る

【補足】

  • 人工知能研究:ソフトウェア的な知能の実現に焦点(推論、学習、認識など)
  • ロボット研究:物理的な身体を持ち、実世界で動作するシステムの構築
  • 両者は密接に関連しているが、研究の焦点が異なる
  • 現代では両者を統合した研究(エンボディメント、具身化)が重要視されている

第三次AIブーム(2010年〜)

機械学習

ビッグデータで人工知能が自ら知識を得る

定義:データからパターンを学習し、予測や分類を行う技術。明示的なプログラミングではなく、データから自動的にルールを獲得する。

詳細は第2章 2-3 機械学習を参照

ディープラーニング(深層学習)

知識を定義する要素を、人工知能が自ら習得する

定義:多層のニューラルネットワークを用いた機械学習の手法。特徴量の設計が不要で、データから自動的に特徴を抽出できる。2012年のImageNetコンテストでの優勝(AlexNet)が転換点となった。

詳細は第2章 ディープラーニングを参照

生成AI

ディープラーニングを駆使して、創造的な画像や音楽文章を生み出す

定義:新しいコンテンツ(画像、テキスト、音楽など)を生成するAI技術。既存のデータを学習し、新しいコンテンツを創造的に生成する。代表的なモデルにGPT、DALL-E、Midjourney、Stable Diffusion、ChatGPTなどがある。

詳細は第2章 ディープラーニングを参照

大規模言語モデル(Large Language Model)

大量の言語データを効率的に学習し自然な文章を生成できる

定義:膨大なテキストデータを学習した大規模なニューラルネットワークモデル。ゼロショット学習、文脈理解、汎用性が特徴。代表例にGPT-3、GPT-4、BERT、T5、LLaMAなどがある。

詳細は第2章 LLMを参照

トイプロブレム問題

現実の問題は、複雑な要素がいっぱいなので、本質を損なわないように、問題を簡略化して、人工知能に与える。つまり人工知能は複雑な問題に対処できない。実用的ではない。

【補足】

  • 定義:研究のために現実の問題を過度に簡略化した問題
  • 具体例
    • チェスや囲碁:ルールが明確で、現実世界の不確実性がない
    • ブロックワールド:積み木の配置問題など、限定された環境での推論
  • 歴史的背景:1960-70年代のAI研究で多用されたが、実世界への応用が困難
  • 問題点:簡略化により実用性が失われ、現実の複雑な問題には対応できない
  • 現代への影響:現在のAIは大規模データと計算資源により、より複雑な問題に対応可能になったが、完全な解決には至っていない

知識獲得のボトルネック

エキスパートシステムなどの知識ベースシステムにおいて、必要な知識を人間が手動で入力・構築する必要があり、それがAIの実用化における大きな障害となった問題。

黒本の問題文

機械翻訳とは、言語間の翻訳を自動化する技術である。
1970年代後半は[ルールベース]機械翻訳が主流であったが、1990年代以降は[統計的]機械翻訳が主流となった。
しかし[統計的]機械翻訳は一般常識をうまく扱うことができず、この事は知識獲得の[ボトルネック]と呼ばれた。
近年では、真相学習によるニューラル機械翻訳が誕生し、機械翻訳の性能が大きく向上してきている。

【補足】

  • 定義:AIシステムに必要な知識を獲得することが困難で、システムの拡張や維持が困難になる問題
  • 歴史的背景:第二次AIブーム(1980年代)のエキスパートシステムで顕在化
  • エキスパートシステム:専門家の知識をルールとして記述し、推論を行うシステム
  • 問題点
    • 知識の獲得が専門家へのインタビューに依存し、時間とコストがかかる
    • 知識の形式化が困難(暗黙知の明示化)
    • 知識の更新・維持が困難
    • 知識の矛盾や不完全性の問題
  • 具体例
    • 医療診断システム:医師の知識をルール化するのに膨大な時間が必要
    • 法律相談システム:法解釈の知識を網羅的に記述することが困難
  • 解決への試み
    • 機械学習による自動知識獲得(第三次AIブーム)
    • オントロジー(知識の体系化)
    • 知識マイニング
  • 現代への影響:機械学習により、データから自動的に知識を獲得できるようになったが、高品質なデータの獲得やラベリングのコストが新たなボトルネックとなっている

フレーム問題

今しようとしていることに関係のある事柄を選び出すことが非常に難しい。2025年現在解決していない。

【補足】

  • 1969年、マッカーシーとヘイズが提唱
  • エージェントが行動する際、関連情報と無関係な情報を区別する問題
  • 例:箱を運ぶ時、箱の位置は変わるが壁の色は変わらない。何が無関係かを事前に特定するのが困難
  • 計算量の爆発や文脈依存性により、完全な解決策は未だ存在しない
  • AIの実用化における根本的な課題の一つ

チューリングテスト

定義:1950年にアラン・チューリングが提唱したAIの判定方法。判定者が別室の2者(人間とAI)とテキストで対話し、どちらが人間か判断する。30%以上の確率でAIを人間と誤認できれば合格。物理的外見は関係なく、対話のみで判定する(行動主義的アプローチ)。

【補足】

  • 提唱者:アラン・チューリング(1950年)
  • 判定方法:判定者が別室の2者(人間とAI)とテキストで対話し、どちらが人間か判断する
  • 合格基準:30%以上の確率でAIを人間と誤認できれば合格
  • 特徴:物理的外見は関係なく、対話のみで判定(行動主義的アプローチ)
  • 批判:チャイニーズルーム論証(サール)など、表面的な模倣に過ぎない可能性
  • 歴史的出来事:2014年、Eugene Goostmanが初めて公式に合格(議論あり)
  • 現代への影響:対話AIの評価基準の一つとして使用される

強いAI・弱いAI

定義:1980年にジョン・サールが提唱したAIの分類。

  • 弱いAI(Weak AI / Narrow AI):特定タスクに特化したAI。真の理解や意識はない。現在実用化されているAIの多くは弱いAI。
  • 強いAI(Strong AI / AGI):人間と同等の汎用的知能を持つAI。真の理解・意識を持つ。あらゆる知的タスクを人間のように処理可能。現在は未実現(将来の目標)。AGI(Artificial General Intelligence)は強いAIの別名。

【補足】

  • 提唱者:ジョン・サール(1980年)
  • 弱いAIの例:チェスAI、翻訳AI、画像認識AI、音声アシスタント、ChatGPT、画像生成AIなど
  • 強いAI(AGI):現在は未実現だが、将来の目標として研究が進められている
  • 現在のAIの位置づけ:現在のAI(ChatGPT、画像生成AIなど)は弱いAIの範疇

シンボルグラウンディング問題

定義:1980年代にスティーブン・ハルナッドが提唱した問題。記号(シンボル)とその意味(実世界の対象)を結びつける問題。AIが記号を操作できても、その記号が何を指すかを理解できるかという問題。例として、「りんご」という文字列を処理できても、実物のりんごとの対応を理解できるかという問いがある。

【補足】

  • 提唱者:スティーブン・ハルナッド(1980年代)
  • 問題の本質:記号(シンボル)とその意味(実世界の対象)を結びつける問題
  • 具体例:「りんご」という文字列を処理できても、実物のりんごとの対応を理解できるか
  • 無限後退の問題:辞書の説明も記号のため、無限後退が発生(記号だけでは意味が生まれない)
  • 解決の試み:身体性(Embodiment)、マルチモーダル学習、転移学習
  • 現代の状況:LLMは記号処理に優れるが、グラウンディングは未解決
  • 改善への取り組み:画像とテキストの同時学習(CLIPなど)やロボティクスとの統合で改善を目指す
  • 関連問題:チャイニーズルーム論証とも関連する重要な問題
0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?