前提
TensorRT版の姿勢推定をgithubで見つけたので自環境で試してみましたのメモです。
環境
- Jetson Nano
- ロジクールカメラ C270n
- 有線キーボード
- 7インチ ラズパイ用タッチディスプレイ
- 5V4A ACアダプター
TL;DR
ここのREADMEを参考にして進めていけば良いだけなのですが、デモプログラムを動かすためには以下も必要みたいです。
- torch2trt
- JetCam
- PyTorch
- torchvision
さらにJupyterのUI Library ipywidgetsを有効にすることも忘れずに。
jupyter nbextension enable --py widgetsnbextension
実行手順
- trt_poseのSetupの記載通りにtrt_poseをインストールする。
- torch2trtのSetupに記載された「Option 2 - With plugins (experimental)」の手順でインストールする。
- JetCamのSetupの手順でインストールする。
- PyTorchのインストールはNVIDIAのサイトを参考にしてPython 3.6*の手順を実施。
- NVIDIAのサイトで「torchvision」で検索すると下側に手順が書いてあるので、それをそのまま実施。
- trt_poseのLive demoに記載された通り、学習済モデルをダウンロードしておき、live_demo.ipynbを起動してぽちぽちRunする。
- live_demo.ipynbの中に、以下のコードが記載されたセルがあって、そこの結果枠にボーンが描画された映像が表示されます。
import ipywidgets
from IPython.display import display
image_w = ipywidgets.Image(format='jpeg')
display(image_w)
TensorRT対応していない版を動かした時はカクカクしてたんですが、こっちはすごくスムーズに表示されてます。すごいですね。