8
4

More than 3 years have passed since last update.

JetsonNano で姿勢推定(TensorRT版)を動かす

Posted at

前提

TensorRT版の姿勢推定をgithubで見つけたので自環境で試してみましたのメモです。

環境

  • Jetson Nano
  • ロジクールカメラ C270n
  • 有線キーボード
  • 7インチ ラズパイ用タッチディスプレイ
  • 5V4A ACアダプター

TL;DR

ここのREADMEを参考にして進めていけば良いだけなのですが、デモプログラムを動かすためには以下も必要みたいです。

  • torch2trt
  • JetCam
  • PyTorch
  • torchvision

さらにJupyterのUI Library ipywidgetsを有効にすることも忘れずに。

jupyter nbextension enable --py widgetsnbextension

実行手順

  1. trt_poseのSetupの記載通りにtrt_poseをインストールする。
  2. torch2trtのSetupに記載された「Option 2 - With plugins (experimental)」の手順でインストールする。
  3. JetCamのSetupの手順でインストールする。
  4. PyTorchのインストールはNVIDIAのサイトを参考にしてPython 3.6*の手順を実施。
  5. NVIDIAのサイトで「torchvision」で検索すると下側に手順が書いてあるので、それをそのまま実施。
  6. trt_poseのLive demoに記載された通り、学習済モデルをダウンロードしておき、live_demo.ipynbを起動してぽちぽちRunする。
  7. live_demo.ipynbの中に、以下のコードが記載されたセルがあって、そこの結果枠にボーンが描画された映像が表示されます。

import ipywidgets
from IPython.display import display
image_w = ipywidgets.Image(format='jpeg')
display(image_w)

TensorRT対応していない版を動かした時はカクカクしてたんですが、こっちはすごくスムーズに表示されてます。すごいですね。

8
4
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
8
4