0. 記事の見方
用語 | 説明 |
---|---|
?検索したい用語(詳細説明の為の記事リンク) | 用語の説明。一部リンクと検索用?あり。一部動画解説リンクあり。 |
なるべく、説明が分かりやすそうなサイトを集めました。お陰様でG検定2020#3合格できました。 |
1. 人工知能とは
用語 | 説明 |
---|---|
?人工知能 | 人工的につくられた人間のような知能、ないしはそれをつくる技術。(東京大学 松尾 豊) |
?汎用型人工知能 | 人間の知的処理を総合的に行えるAIで、SF等の作品に登場するAIの多くはこの汎用型AIであることが多い。 |
?特化型人工知能 | 1つのタスクに特化したAIで、現在「AI」と呼ばれ、社会適応されている技術。 |
?ダートマス会議 | 初めて人工知能という言葉が登場した会議。 |
?ジョン・マッカーシー | アメリカの計算機科学者。ダートマス会議を主催し、人工知能という言葉を初めて公に用いた。 |
?特徴量 | データの特徴を表す量で、説明変数とも呼ばれる。 |
?AI効果 | 人工知能プログラムの中身がわかってしまうと、単なる自動化だと思ってしまう心理現象。 |
?エニアック(?ENIAC) | Electronic Numerical Integrator and Computer の略で、アメリカで開発された黎明期の電子計算機。 |
2. 人工知能の変遷と問題
用語 | 説明 |
---|---|
?幅優先探索 | すべての場合分けを記憶しながら探索する方法。最短経路を必ず見つけられるが計算容量を使用する数が多い。 |
?深さ優先探索 | 一方向に掘り下げて解でなかった場合、前のステップに戻り、異なる方向を探索することを繰り返しながら買いを探す方法。計算容量を使用する数が少ない。 |
?Mini-Max法(?ミニマックス法) | 最善手を選ぶための手法の1つ。自分も相手も最善手を打つという仮定のもとスコアを逆算する。 |
?αβ法(?アルファ・ベータ法) | Mini-Max法において、無駄な探索をカットする手法の1つ。枝刈りの方法にはαカットとβカットが存在する。 |
?モンテカルロ法 | ボードゲームにおいて最善手を評価する方法の1つ。次の一手を決める際に、打てる手それぞれで何回もプレイアウトし、勝率が高かった手を選ぶという手法。 |
?STRIPS | 「前提条件」「行動」「結果」の3つの組み合わせで1つの動作を定義する自動計画を記述する手法。 |
?SHRDLU | 自然言語処理を行う人工知能初期の研究開発プロジェクト。テリー・ウィノグラードにより実施された。自然言語を使って積み木を動かす等の操作をすることができる。 |
?テキストマイニング | 構造化されてないテキストデータから、新しい情報を抽出する分析手法。大量のデータから情報を抽出することで、文章中の単語の使用頻度や傾向、相関関係など、様々な特徴を分析する際に用いられる。 |
?Cycプロジェクト(?サイクプロジェクト) | 1984年からスタートした「すべての一般常識をコンピューターに取り込もう」というプロジェクト。 |
?ELIZA(?イライザ) | 1964年から1966年にかけてジョセフ・ワイゼンバウムによって開発された対話型ロボット。 |
?チューリングテスト | ある対話式の機械に対し、「人間的」かどうかを判定する為のテスト。イギリスの数学者、アラン・チューリングが提案した。合格基準の一つに判定者の30%以上が対話相手を人間かコンピューターか判別つかないと判定することであり、2014年にロシアのチャットボット「ユージーン・グーツマン」が、13歳の少年という設定で初めて合格したとされる。 |
?エキスパートシステム | 専門家の知識を入れ込み、その意思決定能力を誰もが使える形にするもの。知識ベースと推論エンジンにより構成される。 |
?Mycin(?マイシン) | エキスパートシステムの1つで、伝染性の血液疾患を診断し、適した薬を処方するプログラム。 |
?意味ネットワーク | 知識を線で結びその関連性を表したもの。現在でもAIプロダクトの解釈性を高める為に使われることがある。セマンティックネットワークともいう。 |
?オントロジー | 意味ネットワーク等で用いられる知識の結び付け方の規則。 |
?フレーム問題 | 「今しようとしていることに関係ある事柄だけを選び出すことが、実は非常に難しい。」という問題。 |
?シンボルグラウンディング問題 | 認知科学者のスティーブン・ハルナッドにより議論されたもので、「記号とその対象がいかにして結び付くか」という問題 |
?中国語の部屋 | 哲学者ジョン・サールによって発表された論文内で、チューリングテストの結果は何の指標にもならないという批判がされた。その論文内で発表された思考実験の名前。 |
?シンギュラリティ | レイ・カーツワイルが提唱した、2045年には人間が自分自身よりも賢い人工知能を作り出すことにより起きる技術的特異点のこと。 |
?特徴表現学習 | 特徴量の加工・抽出までは学習器が行うこと。?ディープラーニングは特長表現学習を行う手法である。 |
3. 機械学習の具体的手法
用語 | 説明 |
---|---|
?教師あり学習 | 正解データを適切に予測できるように、正解データとその他の変数のセットを学習する枠組み。この時、正解データは目的変数、その他の変数は説明変数もしくは特徴量と呼ばれる。また、予測値が連続な場合を回帰、不連続な場合を分類という。 |
?教師なし学習 | 正解を参照せずに変数同士の構造やパターンを抽出する枠組み。クラスタリングや次元削減等は教師なし学習に該当する。 |
?半教師あり学習 | 少量のラベルありデータを用いることで大量のラベルなしデータをより学習に活かせることができる学習方法。 |
?強化学習 | 正解を与える代わりに、将来の報酬や利益を最大化するように、特定の状況下における行動を学習する枠組み。 |
?線形回帰 | 線や平面、超平面で関数をデータにフィッティングさせることで回帰を行う手法。動画解説。 |
?アノテーション | あるデータに対して関連する情報(メタデータ)を注釈として付与すること。転じて、AI業界では、機械学習のモデルに学習させるための教師データ(正解データ、ラベル)を作成することを指す。 |
?正則化 | 主に過学習等を防ぎ、汎化性能を上げるために、モデルに制約を設ける手法。 |
?Lasso回帰(?ラッソ回帰) | L1正則化を施した線形回帰手法で、解がスパースになりやすい。 |
?Ridge回帰(?リッジ回帰) | L2正則化を施した線形回帰手法で、Ridge回帰の解は解析的に書ける。 |
?Elastic Net | Lasso回帰とRidge回帰の折衷案で「Lasso回帰のモデルに取り込める説明変数の数に制限がある」という問題点をカバーできる手法。 |
?ロジスティック回帰 | 線形回帰の考え方を拡張し、目的変数が2クラスを取る場合等に使われる分類手法。動画解説。 |
?サポートベクターマシン(?SVM) | サポートベクター(?サポートベクトル)を利用して予測を行う教師あり学習のモデルで、カーネル法により非線形分離を可能としている。動画解説。 |
?カーネルトリック(カーネル法) | カーネル関数を使うことで、高次元の特徴空間における内積を行わず、入力空間でのカーネルの計算に落とし込むアプローチ。行っていることに対して、計算量が大幅に少なくて済む。 |
?k近傍法 | 回帰と分類が行える手法。分類においては、特徴量空間において距離が近い順に任意のk個を取得し、多数決でデータが属するクラスを推定する。動画解説。 |
?ニアレストネイバー法(?最近傍法) | 求めたい要素からもっとも近い既存データが属する集団に分類する、機械学習のアルゴリズムの1つ。すべての要素までの距離を計算しなければならない為、データ量が大きくなるにつれ、膨大な数の計算が必要となる。その為、計算機の性能により、データ量が制限されてしまう欠点がある。 |
?決定木 | 木構造を用いて回帰や分類を行う手法で解釈性の高さが特徴。動画解説。 |
?アンサンブル学習 | 複数のモデルを合わせて、1つのモデルとして扱う手法で、「バギング」「ブースティング」「スタッキング」の3種類が存在する。動画解説。 |
?ランダムフォレスト | 弱学習器に決定木を用いたアンサンブル手法(バギング)で回帰と分類に用いられる。決定木同様、解釈性の高さが特徴。また特徴量のランダムサンプリングも行っている。 |
?ナイーブベイズ | ベイズの定理を使って、それぞれのクラスに分類される確率を計算し最も確率の高いクラスを結果として出力する、分類問題を解くためのモデル。 |
?勾配ブースティング | アンサンブル学習であるブースティングの一種。前の弱学習器の損失の勾配を用いて、次の弱学習器を作成する。 |
?k-means法(?k平均法) | 教師なし学習で非階層型クラスタリングを行う手法。動画解説。 |
?階層型クラスタリング | 階層的クラスタリング、階層クラスタリング。分類型と凝縮型に分かれ、凝縮型では距離の近いものを1つのクラスタとして順にデータをまとめていく手法。最終結果を樹形図(デンドログラム)で表すことができる。動画解説。 |
?主成分分析 | 教師なし学習の?次元削減の手法で、データのばらつきを最も顕著に表現できるように、すなわち分散を最大化するように第一主成分を選択する。動画解説。 |
?交差検証法 | 手元のデータを複数のブロック(fold)に分割し、その内の1つを評価用として使い、残りを学習データとすることを、評価用データを入れ替えてすべてに対し行う手法。動画解説。 |
?RMSE/?MSE/?MAE/?RMSLE | それぞれ回帰で使用される評価手法で、「root」「絶対値」「log」がついてることによって様々な特徴がある。 |
?正解率 | 正例・負例の数に関わらず、正しく当てられた割合。 |
?適合率 | 正と予測したデータの内、実際に正であるものの割合。TP / (TP + FP) |
?再現率 | 実際に正であるデータの内、正であると予測されたものの割合。TP / (TP + FN) |
?F値 | 適合率と再現率の中庸を取るような指標であり、両者の調和平均を取ることで算出。 |
4. ディープラーニングの概要
用語 | 説明 |
---|---|
?ニューラルネットワーク | 脳神経系のニューロンを模したアルゴリズム。今ではニューラルネットワークの層を深くしたディープニューラルネットワークを始めとして、様々なディープラーニングのモデルが登場し、使われている。 |
?単純パーセプトロン | ニューラルネットワークにおいて、最も基本的なモデルの1つで隠れ層(中間層)を持たない。 |
?活性化関数 | ノードの出力がどのように伝播するかを調整する関数でsigmoid関数やtanh関数、ReLU関数等様々な種類がある。動画解説。 |
?勾配消失問題 | ニューラルネットワークを多層化すると、誤差逆伝播法においてそれぞれの層で活性化関数の微分がかかることから、勾配が消失しやすくなり、学習が進まなくなる問題。 |
?誤差逆伝播法 | バック・プロパゲーション。出力に近い層から順に連鎖的に勾配を求めていく学習法。動画解説。 |
?オートエンコーダ | 入力と出力の形が同じになるようにした隠れ層(中間層)を1つ持つニューラルネットワークで、隠れ層(中間層)の次元は一般的に入力層よりも小さい。 |
?積層オートエンコーダ | オートエンコーダを多層にしたもの。 |
?GPU | 画像処理に特化したプロセッサ。 |
?TPU | Google社が開発プロセッサで、ディープラーニングの学習・推論に最適化されている。 |
5. ディープラーニングの手法
用語 | 説明 |
---|---|
?ステップ関数 | 関数への入力値が0未満の場合には常に出力値が0、入力値が0以上の場合には常に出力値が1となるような関数。 |
?sigmoid関数(?シグモイド関数) | 活性化関数に用いられる関数の1つ。入力xの値を0~1の範囲の値に変換する。主に隠れ層(中間層)や二項分類問題を解くモデルの出力層で用いられる。 |
?tanh関数(ハイパボリックタンジェント関数) | 活性化関数に用いられる関数の1つ。入力xの値を-1~1の範囲の値に変換する。主に隠れ層(中間層)で用いられる。 |
?ReLU関数(ランプ関数) | 活性化関数に用いられる関数の1つ。sigmoid関数やtanh関数よりも勾配消失が起きにくい。ただし、すべての問題に対して最適というわけではない。 |
?softmax関数(?ソフトマックス関数) | シグモイド関数を一般化したものであり、複数個の入力を受け取り、受け取った数と同じ個数の出力を総和が1となるように変換して出力する。主に出力層で使われる。 |
?誤差関数 | モデルの予測値と実際の値(正解データ)との誤差を表した関数。 |
?勾配降下法 | 関数の勾配に当たる微分係数に沿って降りていくことで、最小値を求める手法。大域最適解に必ず収束するわけではないので注意が必要。 |
?学習率 | 勾配降下法において、勾配に沿って一度にどれだけ降りていくかを設定するハイパーパラメータ。 |
?イテレーション(?iteration) | 勾配降下法におけるパラメータの更新回数。2000個の学習データについて、バッチサイズ500個でミニバッチ学習する場合、(勾配降下法等による)重み更新を4イテレーション繰り返すと1エポック(epoch)。 |
?鞍点(あんてん) | ある次元から見ると極大点であるが、他の次元から見ると極小点となる点で勾配降下法での学習がうまくいかない原因となることがある。 |
?プラトー | 鞍点等の停留点に到達して学習が停滞している状態。 |
?確率的勾配降下法(?SGD) | Stochastic Gradient Descent。パラメータxを更新する為の勾配を求める際、全データの中からランダムに抜き出したデータを利用する(ミニバッチ学習)。 |
?モーメンタム | SGDに慣性的な性質を持たせた手法。最小値まで辿り着く経路がSGDと比べて無駄の少ない動きとなっていると共に、停滞しやすい領域においても学習がうまくいきやすくなるといったメリットがある。 |
?AdaGrad | SGDの改良手法で、勾配降下法におけるパラメータ毎の学習率を、勾配を用いて自動で更新する。 |
?RMSProp | AdaGradを改良した手法。 |
?Adam | RMSPropを改良したもので、2014年に発表された。 |
?過学習 | 機械学習においてモデルが訓練データに過剰適合すること。 |
?ドロップアウト | ニューラルネットワークの学習の際、一定の確率でランダムにノードを無視して学習を行う手法で過学習を防ぐ効果がある。 |
?early stopping | 早期終了、早期打ち切り。学習の際、主に過学習が起きる前に学習を早めに切り上げて終了すること。 |
?ノーフリーランチ定理 | あらゆる問題に対して性能の良い汎用最適化戦略は理論上不可能であるという定理。 |
?ハイパーパラメータ | 機械学習のモデルが持つパラメータの中で人が調整をしないといけないパラメータ、設定のこと。 |
?グリッドサーチ | モデルの精度を向上させる為に全てのパラメータの組み合わせを試す手法。 |
?正規化 | スケーリング。データのスケールを揃える等して調整する事。 |
?標準化 | 特徴量を平均0、分散1となるように変換する処理。 |
?白色化 | データを無相関化してから標準化を行うこと。 |
?バッチ正規化 | 各層で伝わってきたデータに対し、正規化を行う手法。 |
?畳み込みニューラルネットワーク(?CNN) | 主に画像処理の分野で高い効果を上げているニューラルネットワーク。畳み込みやプーリングといった処理が行われる。 |
?カーネル(フィルタ) | 畳み込み処理を行う際に用いられるフィルタ。畳み込み層ではカーネル内部の値をパラメータとして学習を行う。 |
?ストライド | 畳み込み処理においてカーネルを移動させる幅のこと。 |
?パディング | 畳み込み処理前に画像に余白となるような部分を追加し、畳み込み処理後の特徴マップのサイズを調整するもの。 |
?プーリング | 画像や特徴マップ等の入力を小さく圧縮する処理で、maxプーリングやAverageプーリング等が存在する。 |
?Global Average Pooling(?GAP) | 分類したいクラスと特徴マップを1対1対応させ、各特徴マップに含まれる値の平均を取ることで誤差を計算できるようにする手法。 |
?データ拡張(Data Augmentation) | 画像に人工的な加工を行うことでデータの種類を増やすこと。 |
?転移学習 | 学習済みのネットワークを利用して、新しい問題に対するネットワークの作成に利用する際に、付け足した(または置き換えた)層のみを学習する方法。 |
?ファインチューニング | 学習済みのネットワークを利用して。新しい問題に対するネットワークの作成に利用する際に、利用した学習済みモデルに含まれるパラメータも同時に調整する方法。 |
?再帰型ニューラルネットワーク(?RNN) | リカレントニューラルネットワーク。過去の入力による隠れ層(中間層)の状態を現在の入力に対する出力を求める為に使う構造を持ったニューラルネットワーク。 |
?通時的誤差逆伝播(?BPTT) | 過去の時系列を遡りながら、誤差を計算していく手法。 |
?入力重み衝突 | 現在の入力に対し過去の情報の重みは小さくなくてはならないが、将来の為に大きな重みを残しておかなければならないという矛盾が、新しいデータの特徴を取り込む時に発生すること。 |
?出力重み衝突 | 現在の入力に対し過去の情報の重みは小さくなくてはならないが、将来の為に大きな重みを残しておかなければならないという矛盾が、現在の状態を次時刻の隠れ層(中間層)へ出力する時に発生すること。 |
?LSTM | Long short-term memoryの略。「CEC(Constant Error Carousel)という情報を記憶する構造」と「データの伝搬量を調整する3つのゲートを持つ構造」を持つRNNを改良したモデル。 |
?GRU(ゲート付き回帰型ユニット) | Gated Recurrent Unitの略。リセットゲートと交信ゲートという2つのゲートを用いた構造のブロックから構成されるモデル。 |
?双方向RNN(?BiRNN) | 2つのRNNが組み合わさった構造をしており、一方はデータを時系列通りに学習し、もう一方は時系列を逆順に並び替えて学習を行うモデル。 |
?sequence-to-sequence(?seq2seq) | 入力となる時系列データから、時系列データを生成するタスク。代表的な構造にはRNN Encorder-Decorderモデルがある。 |
?Attention | 入力データの一部分に注意するような重みづけを行うことで重要な情報を取り出せるようにした手法。様々な種類がある。 |
?価値ベース | 報酬の期待値を状態や行動の価値計算に反映する方法。 |
?方策ベース | 現時点の方策で計算した報酬の期待値と方策を見比べて、どのように方策を変化させれば報酬の期待値が大きくなるかを直接計算する方法。 |
?Q学習 | 価値ベースの強化学習手法。状態sと行動aの組み合わせの価値を、状態sと行動aを選んだ後に得られる報酬和の期待値で表現する。 |
?モンテカルロ木探索 | ある状態から行動選択を繰り返して報酬和を計算するということを複数回行った後、報酬和の平均値をある状態の価値とする価値推定方法。 |
?Deep Q Network(?DQN) | Q学習において、状態と行動の価値をこれまで得た報酬で近似するQ関数を、ニューラルネットワークで表現する手法。 |
?AlphaGo | DeepMind社が開発した深層強化学習を用いた囲碁プログラム。 |
?変分オートエンコーダ(?VAE) | Variational AutoEncoderの略。オートエンコーダに完了を加えたモデルであり、新しいデータを生成することができるモデル。画像を生成する潜在変数の分布を学習し、入力画像を平均と分散に変換する。 |
?敵対的生成ネットワーク(?GAN) | Generative Adversarial Networkの略。ニューラルネットワークで深層生成モデルを構成する際の代表的なアーキテクチャの1つ。ジェネレータとディスクリミネータという敵対する目的を持つモデルを交互に学習していく。 |
6. AI技術の応用
用語 | 説明 |
---|---|
?ILSVRC | ImageNetと呼ばれるデータを使った画像認識の分類精度を競う競技会。 |
?AlexNet | ILSVRCで2012年1位。ILSVRCにて初めて深層学習の概念を取り入れたモデル。ジェフリー・ヒントン教授らのチームによって発表された。 |
?GoogLeNet | ILSVRCで2014年1位。Inceptionモジュールと呼ばれる小さなネットワークを積み上げた構造をしている。 |
?VGG16 | ILSVRCで2014年2位。13層の畳み込み層と3層の全結合層の合計16層から構成されているモデル。3×3の小さな畳み込みフィルタのみを用いたうえで、層を深くしたという特徴がある。 |
?ResNet | ILSVRCで2015年1位。最大152層から構成されているネットワーク。層を飛び越えた結合(Skip connection)があることが特徴。 |
?DenseNet | 2016年に発表されたモデルで、前方の各層からの出力すべてが後方の層への入力として用いられるのが特徴で、Dense Blockと呼ばれる構造を持つ。 |
?EfficietnNet | 2019年にGoogle社から発表されたモデルで、これまで登場していたモデルよりも大幅に少ないパラメータ数でありながら、SoTA(State of The Art)を達成。モデルの深さ、広さ、入力画像の大きさをバランス良く調整しているのが特徴。 |
?物体検出 | 画像に写っている物体をバウンディングボックスと呼ばれる矩形(くけい)の領域で位置やクラスを認識するタスク。 |
?R-CNN | Region CNN(領域ベースCNN)。2014年に発表されたCNNを用いた物体検出モデル。 |
?YOLO | 物体検出手法の1つ。検出と識別を同時に行うのが特徴。 |
?SSD | Single Shot MultiBox Detector。物体検出の手法で、特徴の1つに小さなフィルタサイズのCNNを特徴マップに適応することで、物体のカテゴリと位置を推定することが挙げられる。 |
?Faster R-CNN | 2015年にMicrosoft社が開発した物体検出アルゴリズム。 |
?セマンティックセグメンテーション | 画像に写っているものをピクセル単位で領域やクラスを認識するタスク。物体領域を種類ごとに抽出する。 |
?インスタンスセグメンテーション | 画像に写っているピクセル単位で領域やクラスを認識するタスク。個別の物体領域を抽出する。 |
?SegNet | 2017年に提案されたセマンティックセグメンテーションを行う手法の1つ。入力画像から特徴マップの抽出を行うEncoderと、抽出した特徴マップと元の画像のピクセル位置の対応関係をマッピングするDecoderで構成される。 |
?U-Net | セマンティックセグメンテーションを行う手法の1つ。全層畳み込みニューラルネットワークの一種で、畳み込まれた画像をdecodeする際にencodeで使った情報を用いるのが特徴。 |
?形態素解析 | 形態素と呼ばれる言語で意味を持つ最小単位まで分割し、解析する手法。また、単純に単語を分割するだけでなくそれぞれの形態素の品詞等の判別も行う。 |
?Bag of Words | Bag-of-Words(Bow)。どの単語が含まれるかに注目して単語をベクトル化する方法。 |
?TF-IDF | Term Frequency(TF)と、Inverse Document Frequency(IDF)の2つの情報から単語の重要度を算出する方法。大雑把言うと、レアな単語が何回も出てくるようなら、文書を分類する際にその単語の重要度を上げるというもの。 |
?トピックモデル | 文書や単語に潜む潜在的なカテゴリを説明するモデル。 |
?LDA(潜在的ディリクレ配分法) | Latent Dirichlet Allocationの略。文書集合から各文書におけるトピックの混合比率を推定する手法の1つ。各トピックから単語が生成される確率もトピックと同時に推定する。 |
?word2vec | 単語の分散表現を獲得する、ニューラルネットワークを用いた推論ベースの手法。 |
?doc2vec | 文章の分散表現を獲得する、ニューラルネットワークを用いた推論ベースの手法。 |
?Transformer | Google社が2017年に発表した「Attention Is All You Need」という論文で登場した言語モデル。 |
?BERT | Bidirectional Encoder Representations from Transformers の略。Google社が2018年に発表した双方向Transformerを使ったモデルで、事前学習に特徴がある。 |
?Masked Language Model(?MLM) | BERTにも用いられている事前学習のタスクで、文中の複数個所の単語をマスクし、本来の単語を予測する。 |
?Next Sentence Prediction(?NSP) | BERTにも用いられている事前学習のタスクで、2文が渡され、連続した文かどうか判定する。 |
?Gap Sentences Generation(?GSG) | PEGASUSというモデルにも用いられている事前学習のタスクで、複数個所の文をマスクし、本来の分を予測する。またマスク部分の決定はランダム以外の方法で決定する。 |
?GPT-2 | OpenAIが2019年に発表したTransformerベースのテキスト生成モデル。800万のWEBページを学習している。高精度な為に開発陣が「あまりにも危険過ぎる」と危惧するあまり論文公開が延期される事態にまで発展したことで話題に。 |
?音素 | 語の意味を区別する音声の最小単位。音声認識では、音素から単語への予測が行われることがある。 |
?ケプストラム | 音声認識で使われる特徴量の1つ。音声信号に対し、フーリエ変換を行った後、対数を取り、もう一度フーリエ変換を行い、作成する。 |
?メル尺度 | 人間の音声知覚の特徴を考慮した尺度で、メル尺度の差が同じ時、人が感じる音高の差が同じになる。 |
?メル周波数ケプストラム係数(?MFCC) | 音声認識の領域で使われることの多い特徴量の1つ。ケプストラムにメルメル周波数を考慮したもの。 |
?マルコフ過程 | 確率モデルの1つ。マルコフ性(ある時刻の状態がその直前の状態によってのみ決まる特性で無記憶性ともいう)を持つ確率過程(時間とともに変化する確率変数)。 |
?隠れマルコフモデル(?HMM) | 観測されない隠れた状態を持つマルコフ過程。 |
?損失関数 | 予測と実際の値のズレの大きさを表す関数。損失関数の値が小さければより予測精度の高い正確なモデルと言える。動画解説。 |
?CTC損失関数 | Connectionist Temporal Classificationの略。音声認識等で用いられる損失関数。LSTMやRNN等でEnd-to-Endに音声認識を行う際に用いられることがある。 |
?WaveNet | 2016年にDeepMind社によって開発された音声合成・音声認識に使われるモデル。PixelCNNというモデルをベースにしている。 |
?RAINBOW | Deep Q NetworkをベースにDueling Network、Double DQN、Noisy Net、Categorical DQN等のアルゴリズムを全部載せしたアルゴリズム。 |
?Actor-Critic | 行動を選択するActorと、Q関数を計算することで行動を評価するCriticを、交互に学習するアルゴリズム。 |
?REINFORCE | 一連の行動による報酬和で方策を評価して、チョコ右折方策を改善する方策勾配法系のアルゴリズム。 |
?AlphaGo Zero | AlphaGoを改良したプログラム。人間の棋譜を一切使わずに、Alpha Zero自身の自己対戦によって棋譜を生成して、ゼロからニューラルネットワークを学習。 |
?deepfake(?ディープフェイク) | GAN等を用いて人物の画像や映像を合成する技術。既存の画像と映像を、元となる画像または映像に重ね合わせて、非常に自然に合成をすることが可能。 |
7. 法律・倫理・現行の議論
用語 | 説明 |
---|---|
?Kaggle | データサイエンティストのコンペティションプラットフォームであり、様々な企業や研究者データを投稿し、世界中のデータサイエンティストが自身のモデルの精度等を競っている。様々なデータに対する解法や考察等も存在し、閲覧することができる。 |
?Coursera | 機械学習等の分野をオンラインで学ぶことができる教育プラットフォーム。 |
?MOOCs | Courseraのような大規模なオンライン講座群のことで、Massive Open Online Coursesの略。 |
?arXiv(アーカイヴ) | 機械学習等の論文をアップロード・ダウンロードすることができるプラットフォームで、最新の研究等の情報を閲覧することができる。 |
?Tay | Microsoft社が2016年に、19歳の女性の話し方を模倣するように設計されたチャットボット。様々なソーシャルネットワークサービス(SNS)に向けてリリースしたが、リリースから数時間後、不適切な発言が多かった為公開停止。 |
?フィルターバブル現象 | 商品のレコメンドシステムや検索エンジンにおいて、自分が見たいものや欲しい情報のみに包まれてしまう現象で、インターネット活動家であるイーライ・パリサーが2011年に出版した著書名から名前が付けられた。 |
?ブラックボックス | 中身が分からない黒い箱。転じて、機械学習領域では予測根拠が分からない場合に使われる。ディープラーニング等のモデルが複雑になるほど、ブラックボックスである傾向が強い。 |
?XAI | 解釈性の高いもしくは説明可能なAIのこと。米国DARPA(Defence Advanced Research Projects Agency: 国防高等研究計画局)が主導する研究プロジェクトが発端となり、XAI(Explainable AI)と呼ばれる。 |
?透明性レポート | 顧客・社会に向けて、収集したデータやその扱い等について開示したもの。 |
?EU一般データ保護規則(?GDPR) | EUを含む欧州経済領域内にいる個人の個人データを保護する為のEUにおける統一的ルールである、域内で取得した「氏名」や「クレジットカード番号」等の個人データを域外に移転することを原則禁止している。EU域内でビジネスを行い、EU域内にいる個人の個人データを取得する日本企業に対しても、幅広く適用される。 |
?匿名加工情報 | 個人方法を加工することで特定の個人を識別することができないようにし、当該個人情報を復元不可にした情報。 |
8. 組織・メディア・学習サイト
用語 | 説明 |
---|---|
日本ディープラーニング協会 | 一般社団法人。Japan Deep Learning Association(JDLA)。G検定及びE検定の開催団体。 |
人工知能学会 | 一般社団法人。人工知能に関する研究の進展と知識の普及を図り,もって学術・技術ならびに産業・社会の発展に寄与することを目的として設立された学会。 |
Ledge.ai | 株式会社レッジが運営する「発想と実装の間をつなぐ」がコンセプトのAI/人工知能特化型Webメディア。 |
AINOW | ディップ株式会社が運営するAI(人工知能)について知り・学び・役立てることができる国内最大級のメディア。 |
AI 機械学習 Wiki | 機械学習自動化ソフトウェアのDataRobotが運営する用語集サイト。あらゆるスキルレベルのビジネスおよび分析の専門家向けの機械学習、データサイエンス、人工知能(AI)に関する用語の検索が可能。 |
Aidemy | 株式会社アイデミーが運営するテックカレッジ。お薦めは「機械学習概論」と「ディープラーニング基礎」。 |
Chainer チュートリアル | Chainerはニューラルネットワークの計算および学習を行うためのオープンソースのソフトウェアライブラリ。 |
Able Programming | 機械学習やディープラーニングに関する動画を投稿しているYouTubeチャンネル。 |