DeepLearningと古典的なモデルの違い
DeepLearningと古典的なモデルの違い 従来の機械学習では、画像からマニュアルで特徴量を抽出することからスタートし、抽出した特徴量を使って画像内の物体を分類するモデルを作成する ディープ...
14 search resultsShowing 1~14 results
You need to log-in
DeepLearningと古典的なモデルの違い 従来の機械学習では、画像からマニュアルで特徴量を抽出することからスタートし、抽出した特徴量を使って画像内の物体を分類するモデルを作成する ディープ...
AlexNet, ResNet, EfficientNetについて AlexNet 古典的な画像認識アプローチであるSIFT + Fisher Vector + SVMに大差をつけてILSVRC...
分類問題でのSoftmax関数の役割 softmax関数(Softmax function) 複数の出力値の合計が1.0(=100%)になるように変換して出力する関数である 各出力値の範囲は0....
損失関数、評価関数について 損失関数(Loss function) 図1:損失関数のイメージ 出典:[https://atmarkit.itmedia.co.jp/ait/articles/21...
Validation(評価データ)の分け方について K-Fold ホールドアウトを除いたデータをランダムサンプリングによって k 個の塊(Foldと呼ぶ)に分割し、Fold の一つを検定データ、...
HyperParameter(ハイパーパラメータ)と学習結果の違い 学習率 一回の学習で重みパラメータをどれくらい変化させるかという指標 大きいと一気にパラメータが更新され、小さいとチビチビと進...
Optimizer(最適化)の種類について Optimizer(最適化) 損失関数の最小値(とその時のパラメータ)を求めるアルゴリズム パラメータの値を変更して、lossの値を出来る限り小さくす...
Batch normalization(バッチ正規化)の役割 Batch normalization(バッチ正規化) ミニバッチ毎に、平均0分散1になるよう正規化を行う →出力が適度に分散され、...
DropOut(ドロップアウト)の役割 ドロップアウト(Dropout) ニューラルネットワークの過学習を防ぐために提案されたテクニックで、一定の確率でランダムにニューロンを無視して学習を進める...
BatchNormalizationとDropoutの併用について 下図よりBatchNormalizationとDropoutを併用することで、学習速度が低下するものの、過学習が抑制できること...
pointpillars論文 Abstract 3Dの点群から物体検出を行うというタスク(自動運転などで用いる) 最近の文献では2種類のエンコーダが提案されている 固定的なエンコーダ →高速だが...
ReLU関数について ReLU関数(Rectified Linear Unit function) 図1:ReLU関数のグラフ 出典:[https://atmarkit.itmedia.co.j...
Auto Encoder(オートエンコーダー)について Auto Encoder(自己符号化器) 入力データを圧縮し(次元削減,特徴抽出)そこから再度入力データを復元するようなニューラルネットワ...
以下について調査 DeepLearningと古典的なモデルの違い AlexNet, ResNet, EfficientNetについて 分類問題でのSoftmax関数の役割 Relu関数について ...
14 search resultsShowing 1~14 results
Qiita is a knowledge sharing service for engineers.