LoginSignup
1
0

ZED2iセンシング検証 ~ロングスカートを履いた状態でどこまで正確に反応してくれるのか~

Posted at

この記事の目的

自分が知っておきたい範囲で、ロングスカートを履いた状態でZED2iを使ってどこまで人として認識してくれるのかやんわりと記録する。備忘録。(まあなんとなく結果は想像できそうですが)
ZED2iでトラッキングまでできたけど、なんとなく部屋一つ分での精度は知っておきたい人向け。

ZED2i公式サイト

早く結果が知りたい人向け

ロングスカートだとうまく反応しません。足の膝辺りの認識はさせないといけないみたいです。

この検証で行うスペック環境

内部(PC)

  • Windows11
  • AMD Ryzen 5 3600X 3.8GHz
  • Windows(C:)残り容量が15.6GB
    ※10GB以下になるとZEDExplorerから注意されます
  • ZEDExplorerの設定
    HD1080/30fps 他全てDefault
  • ZED SDK4.0を使用して、Unityで検証を行う
    ※今(2024/5/30)にUnitySDKを見てみたところ4.1VerのSDKが見つかったので今からやる人は4.1のSDKをダウンロードしておくことをお勧めします。(ZED SDKのverと合わせておくように!)

外部(配置など)

実践

  1. 所定の位置に立つ
  2. 照明の明るさを明、暗に分け、計三回行う
  3. 1m、2m、3mと距離を放していってセンシングするか試す
    Unityのプロジェクトにモデルが出てきたらセンシング成功です

A.png

公式では20mまでセンシング出来ると記述されている

実験 ロングスカートを着た状態で立つ

照明 明るい

1m:画角に収まらない

2m:反応するが挙動が不安定(モデルが回転する)
C.png

3m:反応 2mより挙動は良かった
D.png

所感
全体を通して、ロングスカートは足として認識してくれないみたいです。若干動いてはくれますが満足した挙動はしてくれません。手を広げて左右に振ると足が浮きます。
実験した中だと3mが一番センシングしやすかったです。

照明 暗い

1m:画角に収まらない ちょっとだけ反応した

2m:明るい場所より挙動が怪しかった
F.png

3m:白い服を着ていたおかげか反応は良かった
G.png

所感
服の色と背景の色にも関係しているみたいです。
恐らく意図してないであろう暗い場所でも、人は認識したのでよほど暗くなければ使うことができそう。

補足

暗い場所で黒いワンピースを着て実験を行うと更に精度が悪くなり、後ろに暗幕を被せて行うともはや人として認識しませんでした。
ZED2iを使用する際は、なるべく服の色と背景の色を乖離させた方が良いかと思われます。

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0