Sweet Home 3d上の仮想空間を散歩するPGM
sweet Home 3d上の仮想空間を実際の動作変化を検出することで足踏み等動いている間だけ
カメラ移動・散歩するPGMをpythonで作りました
仮想空間のサイト
Sweet Home 3D - Draw floor plans and arrange furniture freely
github: https://github.com/NanjoMiyako/WalkingInSpace
使い方
0.使用前に以下スクリーンショット中のA~Eの座標をPGM上から設定します ![screenshot1.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/412430/2e24140a-e063-9d6d-fd81-98029af7520d.png)
(github上のscreenshot1.pngのファイル)
-
コマンドラインからプログラムを呼び出しますその際、2つ目の引数で動いたと判定する差分のパーセントを指定します
-
発話で以下のうち一つコマンドを言います
A: {カメラ 右/右上/右下/左/左上/左下}
B: {移動 北/南/東/西} -
うまく聞き取れたら「OK」と発話します(聞き取れなかった場合は「もう一度」と発話)
4.その5秒後、動いている間だけ、1でのコマンドを実行し続けます
5.停止したときには2に戻ります
課題
クリック時の人型の発見に矩形エリアの画素の色が青色の部分を探すため、 矩形エリア内に青色のオブジェクトを入れることができないことが課題として残っています
参考にしたサイト
Pythonで音声入力に入門しよう(SpeechRecognition) | Futurismo
Google Speech APIを使えるようになるまで - Qiita
PyAutoGUIでデスクトップの座標取得|システムブック
【Python】PyAutoGUIによるスクリーンショットの撮影 | ジコログ
PyAutoGUIを使おうとしてpyscreeze.PyScreezeException: The Pillow package is required to use this function.とエラーになる - Qiita
Keyboard Control Functions — PyAutoGUI documentation
【自動化】Pythonでマウスとキーボードを操る - Qiita
PyAutoGUIを使った自動化 -入門編- 〜D&Dやスクロールなどのマウス操作も簡単に〜 - Qiita