はじめに
今回はAlphaPoseを実行する際に使えるコマンドを紹介します。
全てを網羅できていないかもしれませんが、ご了承ください。
コマンド一覧
これから紹介するコマンドは以下の実行コマンドに付随するオプションコマンドです。
python scripts/demo_inference.py
デモオプション
(必須)モデルファイルsimple.yaml
を設定
--cfg simple.yaml
(必須)チェックポイントファイル256x192.pth
を設定
--checkpoint 256x192.pth
Pytorchでシングルプロセスを使用
--sp
使用するGPU、CPUの指定
(カンマ区切りで複数指定可能。-1 : CPU。0, 1, 2 ... : GPU)
--gpus -1
フリップテストの設定
(フリップテストによって精度が上昇する)
--flip
検出器の設定
(デフォルトではyolov3-sppが使われる)
--detector yolox-x
検出結果の出力ファイルの設定
--detfile
画像を可視化
--vis
人のバウンディングボックスを表示
--showbox
画像オプション
入力する画像img.png
を設定
--image img.png
入力する画像ディレクトリimg_dir
を設定
(ディレクトリ内の全ての画像にAlphaPoseを動作させる)
--indir img_dir
画像ディレクトリ内でも動作させる画像をファイルdemo.txt
で指定
(--indir
と使う)
--list demo.txt
AlphaPose動作後の動画像出力先output
を指定
--outdir output
画像として結果を保存する
--save_img
ビデオオプション
ビデオファイルinput.mp4
を設定
--video input.mp4
ウェブカメラを設定
(例:複数台あるうちの1台目を指定)
--webcam 0
レンダリングの高速化
(動画の全フレームを処理できない(FPSが低下する)代わりにリアルタイム処理を行う)
--vis_fast
追跡オプション
Re-IDトラッキングを設定
--pose_track
MOTトラッキングを設定
--detector tracker
おわりに
今回はAlphaPose内のdemo_inference.py
に書かれている内容を読み取ってコマンド一覧を作成してみました。
公式のコマンド一覧ページを見つけました。
指摘等あればコメントを頂けると幸いです。
役に立ったらLGTMをお願いします!