前書き
この記事はゲームの最先端とも言えるインタラクティブコンテンツの作り方となります。
本記事では測域センサとUnityの繋ぎ方、検出した位置にオブジェクトを生成するまでの方法を説明していきます。
どのようなコンテンツを制作したか
実際に足を使ってホッケーができるインタラクティブコンテンツを制作しました。
システムの開発は私を含めた4人の学生で行いました。
使用した機材
- 北陽 測域センサ UST-20LX
- 超短焦点プロジェクター IP-AW400W
- PC
- ヒートシンク
- 六法全書(センサを床から離すのに使用)
1.GithubからサンプルのUnityを入手
まずはコード一式をダウンロードして解凍してあげましょう。
展開先は適当で大丈夫です。
2.example.unityを開く
以下のパスに沿ってフォルダを開いてください
パス:urg-unity-master\Assets\Example
中に「example.unity」というファイルがあるのでダブルクリックで起動してください。
開くunityはなるべく元のものに近いバージョンのものを選択してあげてください。
このように表示されても、続行で問題ありません。
起動が完了すると下記の様になります。
エラーなく起動できていれば問題ありません。
ここでエラーが発生する場合、バージョン差による問題が発生している可能性があるのでバージョンを変えて開くことをお勧めします。
3.実行
PCと測域センサを事前に接続しておいてください。
※初めて接続する場合、URG Benriというソフトを用いて正常に接続できるか確認をお願いします。ここでIPアドレスなどがデフォルトではない場合、unityでの接続にはIPアドレスを変更させる必要も出てきます。
PCとセンサの接続が完了次第、実行ボタンを押下しましょう。
実行し、シーンを見ると青い波形とキューブのオブジェクトが生成されるはずです。
青い波形が生成されていれば、キューブが生成されていなくても問題はありません。
これでひとまず、Unityと測域センサの接続は完了しました!お疲れ様でした!
4.センサーの位置を特定する
まずはセンサーの位置を特定します。
仕様上、「UST-10LX」というオブジェクトの位置がセンサーの位置という訳ではありませんでした。
青い波形の中心なのに?とお思いでしょうが、違う様です。私も謎です。。
こればかりは人力で探すしかないようですね。以下、私が実際に行った手法です。
動画の様に手をセンサーに近づけたり、離したりしてみてください。
手の動きと同じ動きをしているオブジェクトを見つけ、測域センサの位置を特定します。
※センサーに近づきすぎると消えてしまうので、適度な距離で確認してみてください。
下記の様におおよその位置に分かりやすいようオブジェクト(赤色)を設置しました。
このオブジェをprefab化させてゲームを終了させても記録が残るようにしてみます。
5.検出範囲の設定
DebugRendererオブジェクトにアタッチされているDebugRenderer.csを開いてください。
var sensorCorners = new Vector2[4];
sensorCorners[0] = new Vector2(1.5f, 1f);
sensorCorners[1] = new Vector2(1.5f, -1f);
sensorCorners[2] = new Vector2(0.2f, -1f);
sensorCorners[3] = new Vector2(0.2f, 1f);
ここでセンサーが検知する最大の範囲を設定しているようです。
解説が難しいので、コメントを振ってみました。
// 【センサーが読み込む位置の指定】
// 足の位置が合わない場合、ここの値をいじるとなぜか上手くいく :)
/*
---------------------------------
|2 1|
| |
| |
| |
| |
| |
| |
|3 4|
---------------------------------
■
センサー
*/
var sensorCorners = new Vector2[4];
// 1. 右上の座標 センサーから見てまっすぐ2.5f、2.5f行ったところから2.3f横の位置
sensorCorners[0] = new Vector2(2.5f, 2.3f);
// 2. 左上の座標 センサーから見てまっすぐ2.5f、2.5f行ったところから-2.3f横の位置
sensorCorners[1] = new Vector2(2.5f, -2.3f);
// 3. 左下の座標 センサーから見てまっすぐ0.2f、0.2f行ったところから-2.3f横の位置
sensorCorners[2] = new Vector2(0.2f, -2.3f);
// 4. 右下の座標 センサーから見てまっすぐ0.2f、0.2f行ったところから2.3f横の位置
sensorCorners[3] = new Vector2(0.2f, 2.3f);
コメントにある通り、センサーを中心としてそこから端の位置を決めているようです。
Vector2の各値についてはプロジェクターを実際に投影しながら、微調整を行うしかありませんので頑張ってください。
現実で検出された位置とUnity上で生成されるオブジェクトの位置がずれる場合、上記の各Vectorの値を調整することで解決します
地道に調整するしかありません。こればかりは大変ですが、本当に頑張ってください。
私は2時間以上かかりました。
6.検出の精度を調整する
if (clusterIndices[i].Count < 20)
{
continue;
}
このif文では下記のような処理の内容となっています。かなり重要です。
まず前提として測域センサーを中心に赤外線が多方面に照射されます。
この赤外線は細い線が、細かな角度ごとにいくつもあるという認識で、物に赤外線があたると線の数が分かるようになっているようです。
「clusterIndices[i].Count」には物の大きさを表す線の数が含まれており、if文の条件の数値「20」を大きくすると大きな物にしか反応しなくなり、数値を小さくすると小さい物から大きい物まで検出するようになります。
「それなら「1」くらいでいいんじゃないか」と思うでしょうが、誤検出が発生しやすくなるので極端に値を小さくするのはオススメしません。
私的にこの値は「3」に設定すると丁度良くなりました。
センサーから離れれば離れるほど小さな物の検出が難しくなるようです。
遠くに離れると線の数が少なくなってしまうので要調整が必要です。
7.オブジェクトを生成する数を調整する
for (var i = 0; i < 100; i++)
{
var obj = GameObject.CreatePrimitive(PrimitiveType.Cube);
obj.transform.parent = transform;
obj.transform.localScale = 0.3f * Vector3.one;
debugObjects.Add(obj);
}
ここで注目する値はfor文内の「100」という数値です。
この値はオブジェクトを生成する最大の数で「100」と設定されている場合、100個の物まで検知できるといった認識です。基本的にプロジェクトでは1対1のゲームを想定していたため足(物)4本分があれば問題ありません。
なのでfor文内の数値を「4」と設定しても良いのですが、誤検出が起きた際に誤検出側に生成したオブジェクトを占有されてしまい、足の位置にオブジェクトが表示されないことがありました。
そのため、必要な数にプラス10~20くらいの値を指定すれば問題ないかと思います。
8.生成するオブジェクトを変更する
for (var i = 0; i < 100; i++)
{
var obj = GameObject.CreatePrimitive(PrimitiveType.Cube);
obj.transform.parent = transform;
obj.transform.localScale = 0.3f * Vector3.one;
debugObjects.Add(obj);
}
生成数の調整と同様に52~58行目です。
各コードの処理内容が分かりやすいようコメントを振りました。
for (var i = 0; i < 100; i++)
{
// 検知した場所に生成するオブジェクト(キューブ)
var obj = GameObject.CreatePrimitive(PrimitiveType.Cube);
obj.transform.parent = transform;
// 生成するオブジェクトのサイズを指定
obj.transform.localScale = new Vector3(1f, 1f, 1f);
// 生成するオブジェクトを非表示に設定
//obj.GetComponent<MeshRenderer>().enabled = false;
// 追加
debugObjects.Add(obj);
}
下記のコードを追加しました。
コメントアウトを外すと、生成されるオブジェクトが非表示になります。
ビルド時には非表示にする必要があるので、コメントアウトを解除してあげましょう。
// 生成するオブジェクトを非表示に設定
//obj.GetComponent<MeshRenderer>().enabled = false;
オブジェクトを変更
それでは生成するオブジェクトを変更する方法ですが下記のコードを編集します。
// 検知した場所に生成するオブジェクト
var obj = GameObject.CreatePrimitive(PrimitiveType.Cube);
例えばキューブから円筒に変更したい場合は以下の様にします。
// 検知した場所に生成するオブジェクト
var obj = GameObject.CreatePrimitive(PrimitiveType.Cylinder);
オブジェクトのサイズを変更
生成するオブジェクトのサイズを変更する場合、下記の値を変更すると変わります。
// 生成するオブジェクトのサイズを指定
obj.transform.localScale = new Vector3(1f, 1f, 1f);
9.再度実行
期待通りに現実の位置とUnity上のオブジェクトの位置が合わせることができましたか?
こちらはメイン開発を担当した2人が実際に動き回り、測域センサが足の位置を取得しUnityにオブジェクトを生成してる様子です。リアリティを追求するには本当に微調整が大切と学びました。
ここまで一緒に乗り越えた友人に感謝です。
トラブルシューティング
transform.position assign attempt for 'Cube' is not valid. Input position is { NaN, NaN, NaN }.
解決策:メインカメラの角度をx:90に設定する
このエラーが出力される場合、カメラの角度が関係しています。
元のコードを辿るとカメラが映している範囲を取得していました。
カメラの角度をデフォルトの状態からずらしてしまうと、エラーが発生します。
関係しているのは「X」のみで「Y」「Z」は値を変更しても問題ありませんでした。
URG Benriにすら繋がらない!
解決策:下記のリンク先に対策をまとめたので確認してみてください
センサーの検出位置とオブジェクトの生成位置が異なる
解決策:DebugRenderer.csを編集する
本記事の「5.検出範囲の設定」内で説明しているVector2の値を調整する必要があります。
ここを減らしたり増やしたりすることで、必ず合います!
また測域センサは正しい方向や設置位置にありますか?
センサがずれているとコードを調整したところで確実にズレが生じます。、しっかりとセンサを固定してあげましょう。
測域センサに設定しているIPアドレス、ポート番号がデフォルトと異なる場合
解決策:UST-10LXオブジェクトにアタッチされているEthernet TransportのIP Addressとポートの値を変更してあげてください
センサーが熱を持ってしまう
解決策:センサーにヒートシンクを貼る
私は上記のリンク先のヒートシンクを購入しました。
センサーの側面にヒートシンクを貼ることで、かなり放熱されました。
気温が熱い環境や近くにプロジェクターがあり熱風を浴びる環境などでは、ファンでヒートシンクを冷やす必要もあります。
誤検出が多い!
解決策:明るい場所を避ける・センサーを壁、床などから少し離す
まず蛍光灯をつけると誤検出が増える傾向にありました。
私の場合、センサーを床に設置していましたがセンサを床から離す(高くする)と誤検出が減りました。
丁度良い高さは六法全書くらいの高さでした。多分10~15cmくらいです。
検出範囲とゲームのステージの範囲が合わない
例えばゲームのステージを既に作成していて、検出によって生成されたオブジェクトの移動量や移動範囲と合わない。しかもそのUST-10LXオブジェクトを編集しても移動量や移動範囲は変わらず困っているのではないでしょうか。
解決策:ゲームのステージ等の全てのオブジェクトのサイズを「検出によって生成されるオブジェクトのサイズ感」に合わせるしかない
私も頑張って解決策を探しましたが、上記の解決策しか方法はありませんでした。
他にあれば教えてください。
まとめ
本当に未知の領域で分からないことばかりだったので、もしかすると間違えている点もあるかもしれません。
もし誤りがあればコメントで指摘をいただけますと大変助かります。
これからインタラクティブコンテンツを作成する皆様の力になれたようであれば、記事を書いた甲斐があります。
もしよろしければコメントやいいねなど反応を頂けると嬉しいです。
また分からないことがあればコメントください。