引っ越しやら新生活やら何やらで、前回から学習期間がずいぶんと空いてしまいましたが、学習を再開しようと思います。
参考書籍
・深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト
学習内容
人工知能分野の問題
トイ・プロブレム(おもちゃの問題)
現実世界の問題を、コンピュータで扱えるように本質を損なわない程度に問題を簡略化したもの。
フレーム問題
1969年にジョン・マッカーシーとパトリック・ヘイズが提唱した人工知能における重要な問題。未だに本質的な解決がされておらず、人工知能研究の最大の難関である。
フレーム問題とは、「今しようとしていることに関係あることがらだけを選び出すことが、実は非常に難しい」ことである。
チューリングテスト(人工知能ができたかどうか判定する方法)
イギリスの数学者アラン・チューリングが提唱。
別の場所にいる人間がコンピューターと会話をし、相手がコンピューターだと見抜けなければコンピューターには知能があるものとする。
イライザ(ELIZA)
1966年にジョセフ・ワイゼンバウムによって開発された。
精神科セラピストの役割を演じるプログラムで、人間とコンピューターが会話を行う最初のプログラムである。本物のセラピストと信じてしまう人も現れた。
ローブナーコンテスト
1991年以降、毎年開催されるチューリングテストに合格する会話ソフトウェアを目指すコンテストである。
「強いAI」と「弱いAI」
「強いAI」「弱いAI」という言葉は、アメリカの哲学者ジョン・サールが1980年に発表した「Minds, Brains, and Programs(脳、心、プログラム)」という論文の中で提示した区分です。この論文は人工知能に肯定的な哲学者との間に論争を引き起こした。
強いAI:
適切にプログラムされたコンピューターは人間が心を持つのと同じ意味で心を持つ。また、プログラムそれ自身が人間の認知の説明である。
弱いAI:
コンピューターは人間の心を持つ必要はなく、有用な道具であればよい。
中国語の部屋
ジョン・サールは「強いAI」の実現は不可能であると説明するために提案した思考実験。
ある部屋に英語しか分からない人が閉じ込められていて、その部屋の中には中国語の質問に答えることができるマニュアルがある。それを使えば、部屋の中の人は中国語で受け答えができる。これを繰り返すことで部屋の外の人は中の人が中国語を理解していると判断できる。しかし実際にはマニュアルを通して中国語で受け答えできただけであり、中国語を理解していることにはならない。従って、知能があるような受け答えをできるか調べるチューリングテストに合格しても、本当に知能があるかわからないという議論。
ロジャー・ペンローズ
数学者のロジャー・ペンローズは「皇帝の新しい心ーコンピュータ・心・物理法則」という著書の中で、意識は脳の中にある微細な管に生じる量子効果が絡んでいるので、既存のコンピューターでは「強いAI」は実現できないと主張。
シンボルグラウンディング問題(記号接地問題)
1990年に認知科学者スティーブン・ハルナッドにより議論されたもので、記号(シンボル)とその対象がいかにして結びつくかという問題。
身体性
知能が成立するためには身体が不可欠であるという考え方がある。人間には身体があるからこそ、物事を認知したり思考したりできるという考え。このようなアプローチは 「身体性」に着目したアプローチと呼ばれている。
知識獲得のボトルネック
機械翻訳は、人工知能が始まって以来ずっと研究が続いている。1970年代後半はルールベース機械翻訳という仕組みが一般的だったが、1990年代以降は統計的機械翻訳が主流になった。しかしまだまだ実用レベルではなかった。機械翻訳が難しい理由は、コンピューターが「意味」を理解していないことが最大の理由でした。
例えば、「He saw a woman in the garden with a telescope.」という英文を日本語に訳す場合、ほとんどの人は「彼は望遠鏡で、庭にいる女性を見た」と訳す。しかし統計的機械翻訳を使うと「彼は望遠鏡で、庭で女性を見た」という訳文になる。少し不自然に感じるのは、人間には「望遠鏡を持っているのは男性が多い」「庭にいるのは女性が多い」といった経験から生じる一般常識があるからである。
こういった知識をコンピューターに入れる必要がある。
このように、1つの分を訳すだけでも一般常識がなければ訳せないということが、統計的機械翻訳の問題点である。このように、コンピューターが知識を獲得することの難しさを、人工知能の分野では知識獲得のボトルネックと呼ばれている。
ニューラル機械翻訳
最近になって、ディープラーニングを使ったニューラル機械翻訳という技術が利用されるようになった。2016年11月にGoogleが発表したGoogle翻訳ではニューラル機械翻訳が利用されており、機械翻訳の品質が格段に向上した。
特徴量設計
機械学習では 「注目すべきデータの特徴」の選び方が性能を決定付ける。
たとえば、真夏のビールの売り上げを予測する場合、「気温」に注目する。このように、注目すべきデータの特徴を量的に表したものを、特徴量と呼ぶ。
特徴量を見つけることが難しいのであれば、特徴量を機械学習自身に発見させればよく、このアプローチは特徴表現学習と呼ぶ。
ディープラーニングは、「特徴表現学習」を行う機械学習アルゴリズムの1つです。
ディープラーニングに関するもう1つの視点は、ニューラルネットワーク自身が複数ステップのコンピュータープログラムを学習できるということ。
この視点に立てば、特徴量は入力データとは無関係で、与えられた問題を解くために必要な処理(プログラム)に役立つ情報が特徴量として抽出されていると考えられる。
シンギュラリティー
人工知能の分野で語られる シンギュラリティー(技術的特異点) とは、人工知能が十分に賢くなり、自分自身よりも賢い人工知能を作るようになった瞬間、無限に知能の高い存在を作るようになり、人間の想像力が及ばない超越的な知性が誕生するという仮説。
未来学者で実業家のレイ・カーツワイルは、このようなシンギュラリティーが2045年という近未来であると主張している。
特異点
数学や物理学でよく用いられる概念で、ある基準が適用できなくなる点のことを指す。