LoginSignup
2
7

More than 5 years have passed since last update.

Deep Leaningの高速推論(CPU)に関する情報まとめ

Posted at
  • 個人的防備録として。検証のための動作確認は未実施。実施後追記予定。
  • 主にchainerとtensorflowを使っているので、これらのフレームワークで使えるものを調査した
  • コンパイルを行わない方法に関しては、主にMKL-DNNライブラリを用いて高速化を行っているようだ
  • コンパイルを行う方法に関しては、TensorFlow XLA, Nervana Graph Compiler, TVM/LLVMなどがあるようだ

Intel nGraph

  • ONNX形式をサポートしているため、chainerのモデルをインポートできると思われる(未確認)。
  • IntelはNervana Graph CompilerおよびMKL DNNライブラリによる高速化を実施している
  • 両者の違いはこのページが分かりやすい
    • Nervana Graph Compilerでハードウェアに依存しない最適化を実施する
    • 後述のTensorFlow XLAと類似の機能と思われる(Intel Nervana Graph とは?)
    • MKL DNNでIntel CPUに特化した最適化を行う
  • MKL-DNN単体のみでの利用も可能(後述のフレームワークはMKL-DNNライブラリ利用したものが多い)で、Nervana Graph Compilerの単体利用も可能
  • MKL DNNの概要は以下

TensorFlow

Chainer v4.0.0以降

NNVM/TVM

2
7
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
7