LoginSignup
0
0

[TinyML] Memoryの使用量を下げる方法

Posted at

In-place depth-wise Convolution

depth wise convolutionは2N(入力N,出力N)のPeak Memoryを使用する。
しかしdepth wise convolutionはchannel間の依存関係が無いため、計算が終わったChannelはデータを書き換えても問題ない。
そこでtemporally bufferを用意する事で、N+1のPeak Memory Usageに抑える事が出来る。
image.png

interpretation to code generation

ほとんどのinference libraries(e.g., TF-Lite)はinterpreter-baseである。使わないfunctionなども準備して置く必要があり、MemoryのOverheadが生じてしまう。runtimeにoperationを呼ぶのではなく、compilation時にコードを生成する事で必要最低限のfunctionで動くためMemoryを節約出来る。

Reference

MCUNet: Tiny Deep Learning on IoT Devices

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0