1
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

ラズパイでYOLOを動かしてみた

Last updated at Posted at 2018-12-28

最近、何らかのマイコンボード上で、CNNのモデルを動かすというのが自分のテーマでありまして、
最近確認したのが
1) Google Vision KitのVision bonnet上で、ジャンケンの手の形を判定させた
2) Caffeのクラウド環境(AWS p2.xlarge)でSqueezeNetのモデルを転移学習させたものをRaspberry Pi上動かす(確認中)
3) SONY Spresenseのメインボード上で、Hello Worldを動かした
4) FPGAボードのPYNQ-Z1やUltra96の使い方を勉強中
 (是非、いずれかで、高速に転移学習モデルを動作させたい!)

という自己学習なのでゆっくりですが、しかし、確実に単なるTensorflowやKerasをローカルで
動作させるというレベルから一歩踏み出している感じがする、今日この頃です。

そんな中で、年末の連休に突入した本日、今日こそはちゃんと寝ようと思ったのだが、やはり1時くらいから
PCの前でAIの勉強に励んでいる自分がいる。w
そしてふらっと迷い込んだのが、YOLOによる物体検知。

AIの勉強をしていると、数式やモデルの構造、専用ボードの知識の探求ということが多く、中々目に見えて画像処理をしているという感覚を得るのに時間がかかるものだが、今回、こちらの記事を参考にやってみたところ、1時間もかからずに、ラズパイ上でYOLO v2による静止画写真の中の物体を認識出来たので、覚え書きしておきます。

ほとんど、この記事の手順通りでOKなのだが、最後だけ、cfg/yolo.cfg を以下のように cfg/yolov2.cfgにしないと、無いよってエラーになるのでそれだけ注意です。

 ./darknet detector test cfg/coco.data cfg/yolov2.cfg yolov2.weights data/kite.jpg
1
5
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?