LoginSignup
4
12

More than 3 years have passed since last update.

Jetson Nanoで物体認識のデモを動かす

Last updated at Posted at 2019-06-27

前回に続いて、今回はUSBカメラを用いてJetson NanoのTensorRTのデモを行ってみます。こちらはGitHubにもチュートリアルが掲載されています。

Jetson Nanoのセットアップ

前回の記事を参照してください。

JetsonNanoのセットアップ

今回使用するもの

  • USBカメラ(後述)

1. Gitレポジトリのクローン コンパイル

'Ctrl+Alt+T'でターミナルを立ち上げます。

以下のコマンドで、GitHubのリポジトリをクローンしてコンパイルしていきます。

$ sudo apt-get install git cmake
$ git clone https://github.com/dusty-nv/jetson-inference
$ cd jetson-inference
$ git submodule update --init
$ mkdir build
$ cd build
$ cmake ../
$ cd jetson-inference/build
$ make
$ sudo make install

2. USBカメラの設定

Jetson NanoはRaspberryPiのCamera Module V2とUSBカメラに対応しています。今回はUSBタイプのウェブカメラを使用します。以下のカメラを使用しました。

先程コンパイルしたものは、デフォルトでJetson Nanoのオンボードカメラを使用するよう設定されています。USBカメラを使用する場合は以下のようにimagenet-camera.cpp内の定義を修正し、再コンパイルする必要があります。

以下のようにcppファイルを開きました。
1.png
2.png
3.png

#define DEFAULT_CAMERAの後ろの数字を-1から0へ変更します。

#define DEFAULT_CAMERA 0    // -1 for onboard camera, or change to index of /dev/video V4L2 camera (>=0)

再コンパイル

$ cd jetson-inference/build
$ make
$ sudo make install

3. デモを動かす

以下のコマンドでカメラを使った物体識別のデモを実行します。

$ cd jetson-inference/build/aarch64/bin
$ ./imagenet-camera googlenet

カメラのストリーミング映像から物体をTensorRTで識別します。かなり色々なものを、すばやく認識することができます。以下にいくつか画像を示します。   

4.png
5.png
6.png
7.png

次に、以下のコマンドでボトルを認識するデモを実行します。

$ cd jetson-inference/build/aarch64/bin
$ ./detectnet-camera coco-bottle

ペットボトルを薄い色の枠で囲って認識することができています。

8.png

このデモには他にも、ボトル認識と同じように顔認識を行うものもあります。興味のある方は試してみてください。

4
12
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
4
12