Chapters
📘 Chapter #0 YOLOとは
📘 Chapter #1 環境設定
📘 Chapter #2 アノテーション
📘 Chapter #3
📗 Chapter #3-1 YOLOv3 Keras版実装
📗 Chapter #3-2 YOLOv3 Darknet版
📘 Chapter #A
📗 Chapter #A-1 YOLOの各バージョンについてまとめ
📗 Chapter #A-2 YOLOv3 Keras版実装に関して関連記事のまとめ
📗 Chapter #A-3 ONNX変換・確認ライブラリ、アプリケーションまとめ
TL:DR
- 元記事が手順として煩雑になっていたため、手順以外の調査した結果に関するまとめについてはこちらに分割しています。
YOLOv3のKeras版実装のソースについて
-
qqwweee/keras-yolo3: A Keras implementation of YOLOv3 (Tensorflow backend)
- YOLOv3のKeras版実装
-
Training (add tensorboard debug, and mAP Calculation) #206
- TensorBoardを使用できるようにしたプルリクエスト
-
bugfix: anchor selection tiny model #503
- Tinyモデルでのトレーニングに問題があることを指摘したプルリクエスト。
-
Borda/keras-yolo3: A Keras implementation of YOLOv3 (Tensorflow backend) a successor of qqwweee/keras-yolo3
- オリジナルのkeras-yolo3が更新されない状態であることを踏まえ活動している模様
-
yolov3の論文の2.3の理解ができません.
-
anchar box(アンカーボックス)についての記載がある。
物体の矩形を直接モデルで予測する形 (YOLOv1ではそうなっていた)だと精度が出なかったので、最近の物体検出モデルは Anchor Box を元にして作るようになっています。
アンカーボックスをk-平均クラスタリングで決めて,各グリッドごとに設定されたバウンディングボックス数分アンカーボックスを設置しているという考えでよろしいでしょうか
それであっていると思います。例えば、YOLOv3 のオリジナル実装である darknet では anchor box は以下のように大きさが決められています。(この値は k 平均法でデータセットから決めています)
https://github.com/pjreddie/darknet/blob/master/cfg/yolov3.cfg
anchors = 10,13, 16,30, 33,23, 30,61, 62,45, 59,119, 116,90, 156,198, 373,326
-
-
学習済みのYOLOv3でオリジナルデータに転移学習(finetune)【物体検出】
-
YOLOv3のネットワーク構造などについても記載がある
YOLOv3はネットワークの構造上、大きい物体を学習しておけば、推論時には小さい物体も検知できるので、学習時には大きい物体のみくっきり写ってる「良質かつ大量」のデータセットで学習
引用元:https://trafalbad.hatenadiary.jp/entry/2020/01/18/170842
-
トレーニング方法 (カスタム オブジェクトを検出する方法):
PyToach版の実装ですが、いろいろ参考になる情報が記載されています(YOLOv5の作者の記載です)。
https://github.com/AlexeyAB/darknet#how-to-train-to-detect-your-custom-objects
画像処理
-
- リサイズ処理について記載されている。画像認識(物体認識)では、学習時と推論時に使用したリサイズの処理やフォーマットが異なると結果に影響することがあるため、留意する必要がある。
-
- Data augmentation(データの水増し)の実装が参考になる
機械学習一般
-
機械学習に関する知見
- 元山 航 氏によるGCPUG 鹿児島 × TFUG 鹿児島(合同ゼミ)#12での資料。データの前処理に関する考えなどが参考になる。
YOLOv4
-
AlexeyAB/darknet: YOLOv4 - Neural Networks for Object Detection (Windows and Linux version of Darknet )
- 本家が出してるわけではないらしい。
-
物体認識のYOLO V4を試してみる。yolov3_5lに比べて精度と速度は良い。
- 自分のサービスに乗っけてみた例
-
【Techの道も一歩から】第28回「深層学習による物体検出で遊んでみる」 - Sansan Builders Box
- 使用してみた例
YOLOv3の利用
-
Jetson NanoでオリジナルYOLOを動かす
- Jetsonでのオリジナルモデルの使用手順が記載されている
-
【5分でOK】KerasでYOLOv3を動かして物体検出に挑戦!【keras-yolov3】
- 簡易的な物体検出手順
-
keras-yolo3 で独自データセットに対して学習させる方法
-
voc_annotation.py
の修正、train.txt
の記述に関する記載がある
-
-
YOLOv3 アノテーション方法について
- 元画像に対してアノテーションした上で、アノテーション座標を変換してみた場合の例
-
自前の画像をVoTTでアノテーションしてkeras-yolo3に呪腕のハサンを学習させる
- keras-yolo3のアノテーションを学習させるtxtファイルの形式等が記載されている
-
YOLOv3 , Mask R-CNNなどの一般物体検出技術をG空間分野に活用する(FOSS4G 2018 Tokyo)
- 衛星画像検出に対する実例
-
Darknet YOLOv3 on Jetson Nano – AI4SIG
- Jetson Nano上でのYOLOv3とYOLOv3-tinyによる物体検出結果について
-
KerasのYOLO-v3を動かしたった
- カメラでのリアルタイム検出あり
PythonとVisual Studio Code
-
Visual Studio CodeでPythonプログラムデバッグ時にコマンドライン引数を渡す方法
- launch.jsonで指定する
{
// IntelliSense を使用して利用可能な属性を学べます。
// 既存の属性の説明をホバーして表示します。
// 詳細情報は次を確認してください: https://go.microsoft.com/fwlink/?linkid=830387
"version": "0.2.0",
"configurations": [
{
"name": "Python: Current File",
"type": "python",
"request": "launch",
"program": "${file}",
"console": "integratedTerminal",
"args": [
"--image",
"--model_path",
"logs/000/trained_weights_final.h5",
"--classes_path",
"model_data/voc_classes.txt"
]
}
]
}
-
Pythonの整形ツールをインストールする場合
- 好みに応じて設定する
conda install --name keras-yolo3 autopep8 -y
conda と pip
-
Anaconda の NumPy が高速みたいなので試してみた
- condaでインストールしたほうが速いモジュールがある。基本はcondaでインストールしてpipはcondaにどうしてもないときに限って使用する。