最近、何らかのマイコンボード上で、CNNのモデルを動かすというのが自分のテーマでありまして、
最近確認したのが
1) Google Vision KitのVision bonnet上で、ジャンケンの手の形を判定させた
2) Caffeのクラウド環境(AWS p2.xlarge)でSqueezeNetのモデルを転移学習させたものをRaspberry Pi上動かす(確認中)
3) SONY Spresenseのメインボード上で、Hello Worldを動かした
4) FPGAボードのPYNQ-Z1やUltra96の使い方を勉強中
(是非、いずれかで、高速に転移学習モデルを動作させたい!)
という自己学習なのでゆっくりですが、しかし、確実に単なるTensorflowやKerasをローカルで
動作させるというレベルから一歩踏み出している感じがする、今日この頃です。
そんな中で、年末の連休に突入した本日、今日こそはちゃんと寝ようと思ったのだが、やはり1時くらいから
PCの前でAIの勉強に励んでいる自分がいる。w
そしてふらっと迷い込んだのが、YOLOによる物体検知。
AIの勉強をしていると、数式やモデルの構造、専用ボードの知識の探求ということが多く、中々目に見えて画像処理をしているという感覚を得るのに時間がかかるものだが、今回、こちらの記事を参考にやってみたところ、1時間もかからずに、ラズパイ上でYOLO v2による静止画写真の中の物体を認識出来たので、覚え書きしておきます。
ほとんど、この記事の手順通りでOKなのだが、最後だけ、cfg/yolo.cfg を以下のように cfg/yolov2.cfgにしないと、無いよってエラーになるのでそれだけ注意です。
./darknet detector test cfg/coco.data cfg/yolov2.cfg yolov2.weights data/kite.jpg