Unreal Engine 4 (UE4) その2 Advent Calendar 2018の11日目です。
先月(2018年11月)に日本向けにVIVEFocusが販売開始されました。
しかし、まだUE4でVIVEFocusの開発方法に関する情報が日本語向けにはパッと見なかったので、それについて書きます。
VIVEFocusについて
HTCVIVEを出している、HTCが出したスタンドアロン型のVRHMD。
6DoFのヘッドセット、1つの3DoFコントローラー
また、個人的な使用感等については[こちらのスライド]
(https://www.slideshare.net/naoakiyamaji/vivefocus)の8ページ目以降でも見ていただけると。
##UE4での開発環境を構築する
まずはUE4でVIVEFocus用のコンテンツを開発するのに必要な環境構築をします。
※今回のエンジンバージョンは4.20.3で行っています(SDKの公式ドキュメントには「Now support Unreal Engine version 4.20.0 ONLY.」と記載されています)。
SDKの公式ドキュメント
####Android用の開発環境を構築する
VIVEFocus自体がAndroidベースのOSで、UE4からのデプロイ等についても、ベースはAndroidをターゲットにした開発と同じような設定や準備が必要となります。
UE4でのAndroidの開発用環境設定は公式のクイックスタートを参考にするのが良いかと思います(ここでは記載しません)。
####Pluginの入ったサンプルを取ってくる
ここからSDKをDLできます。
※HTCアカウントにログインしておく必要があります。
WaveSDKの新しいバージョン(WaveSDK-x.x.x.zip)をDLしてきたら、その中にある「plugins/unreal/plugin.zip」を開きます。
「plugin」フォルダの中にUE4用のサンプルプロジェクトデータが一式入っています。
ただ、サンプルプロジェクトを開く前に、「ThirdParty」フォルダをUE4のインストールフォルダ(デフォルトだとC:/Program Files)内の「\Epic Games\UE_4.20\Engine\Source\ThirdParty」フォルダにコピーし、
その後サンプルプロジェクトを開きます。
####サンプルをデプロイする
プロジェクトの設定等は一通りされているサンプルプロジェクトなので、Android用の設定のみ確認し、パッケージ化できます。
プロジェクト設定の「プラットフォーム」→「Android」→「APK Packaging」にある「プロジェクトはAndroidプラットフォームに対応していません」のところで、「今すぐ設定」を押し、
すぐ下の「Accept SDK License」も押し、表示されるライセンスを確認し、同意します。
これでこのプロジェクトの設定はできたので、パッケージ化します。
「ファイル」→「パッケージ化」→「Android」→「Android(ASTC)」を選択して、パッケージ化を行います。
パッケージ化できたら、実機に転送します。
転送方法は今までのAndroid端末と同じ流れになります。
####プロジェクトの設定について
実機のデプロイが確認できたので、次は新規でプロジェクトを作って確認しようと思います。
まずは空の新規プロジェクトを作ります。
######プロジェクトを開く前に
プロジェクトが作成できたら、一度UE4エディターを閉じて、サンプルプロジェクト内の「Plugins」フォルダを、今作成したプロジェクト内にコピーします。
そしてサンプルプロジェクト内の「Config」フォルダにある「DefaultInput.ini」も、作成したプロジェクトの「Config」フォルダ内にコピーします。
######プロジェクトとプラグインの設定
プロジェクトを開いたらまず「編集」から「プロジェクト設定」を開いて、VIVEFocus用にプロジェクト設定を変更します。
まず「プロジェクト」→「説明」→「Settings」にある「Start in VR」にチェックを入れます。
次に「プラットフォーム」→「Android」→「APK Packaging」の「Enable Gradle instead of Ant」にチェックが入っていることを確認します(チェックが入っていない場合はチェックを入れます)。ついでに「Minimum SDK Version」も「25」に設定しておきます。
あと「Package game data inside .apk?」にもチェックを入れておきます。
最後に先ほどのサンプルプロジェクトでも行った、Android開発用の設定も行えていない場合は行っておきます。
(「プロジェクトはAndroidプラットフォームに対応していません」のところで、「今すぐ設定」を押すやつです。)
プロジェクト設定はこれで終わりなので、次は「編集」から「Plugins」を開きます。
「Project」→「Virtual Reality」から「WaveVR Plugin」が有効になっていることを確認します(有効になっていなかったら有効にします)。
そして今度はデフォルトで有効になっている他のVR系プラグインを全て無効にします。
「Built-In」→「Virtual Reality」から有効になっているプラグインを全て無効にします。
(デフォルトだと「OculusVR」と「SteamVR」が有効になっていると思いますので、その2つを無効にします。)
この変更を行うと、UE4エディターの再起動を要求されるので、再起動します。
これでプロジェクトとプラグインの設定は終わりましたので、実機にデプロイできる状態になりました。
サンプルプロジェクトと同様の手順でデプロイをします。
プロジェクトがStarterContent入ったもので作成したため、あのイスの画面が見れます。
あと、特別な設定はなくともVRのHMDトラッキングはできるため、この時点で平行移動もできます。
####サンプルプロジェクトの注意点
プラグイン内の一部BPで「DefaultInput.ini」に設定されているActionMappingが使用されているため、この手順のようにその辺りも一緒に移行してこないと、プラグイン内の一部BPで警告がでます。
また、Pluginの「Plugins\WaveVR\Content\Materials\ControllerModel\Generic」にある「FbxScene_Generic_3Dof_Controller_MultipleComponent.uasset」がUE4エディター上での読み込みに失敗します(パッケージ化する際に警告がでるかと思います)。これはまだ原因とか調べられてないので、よく解りませんが、ひとまずパッケージ化して動かすことはできますので、今回は保留しておきます。
##コントローラーやHMDとのやり取り
####HMDのトラッキングについて
何もしなくてもひとまずHMDのトラッキングはしてますが、初期化(原点設定)はした方がいい感じなので、それをやっておきます。
まず、Pawnを親クラスとしてブループリントを作成します。
ブループリントを作成したら、まずVR用のカメラのルート用のSceneコンポーネントを追加します。
そして、その子の要素として、Cameraコンポーネントを追加します。
次にイベントグラフでノードを追加していきます。
「BeginPlay」ノードにつなぐ形で「Set Tracking Origin」ノードを追加します。引数の「Origin」はひとまず座位想定で「Eye Level」を設定しておきます。
視点位置のオフセットとして、カメラのルート用に追加したSceneコンポーネントのトランスフォームの位置のZ値に180を設定します。
これで原点設定はできました。
####コントローラーのトラッキングについて
UE4でモーションコントローラーをトラッキングする際はMotionControllerコンポーネントを使う方式が一般的ですが、
現状のWaveVRプラグインでは対応していないようで、現在のコントローラーの状態を取得する関数をTick等で呼び、VR空間内のコントローラー状態を更新する必要があるようです。
先ほどHMDのトラッキングの際に作成したブループリントに仮想のコントローラーをつけて試していきます。
StaticMeshコンポーネントを追加します。
StaticMeshには「Plugins\WaveVR\Content\Materials\ControllerModel\Generic」にある「Unreal___CM__Body」をひとまず設定しておきます。
追加できたら、Tickにて状態を更新するようにします。
「GetWaveVRInputControllerOrientation」ノードを追加し、モーションコントローラーの回転状態を取れるようにします(引数のDeviceには、ひとまず右手用にDevice Type Controller Rightを設定しておきます)。
そしてその回転状態をモーションコントローラー用のStaticMeshに反映していきます。
StaticMeshから「SetRelativeRotation」ノードを呼び、「New Rotation」に「GetWaveVRInputControllerOrientation」の戻り値「Rotation Value」を設定します。
####コントローラーの入力について
基本的にはHTCVIVE等のVR系の入力と同じような感じで管理できるようになっていました。
ActionMappingとして色々登録されているので、それを使うのが判りやすそうです。
今回はテスト的にボタン押下でデバッグ用の文字列を出力して確認します。
先ほど作ったブループリントのイベントグラフ内に「インプットアクションDPadUp_Right」ノードを追加します(実機のコントローラーのパッドの部分の上部の入力用です)。
そして、押された時に適当なメッセージをPrintStringノードで表示させるようにします。
あとはデプロイ時に今作ったPawnをデフォルトでSpawnされるように設定しておきます。GameMode作って、DefaultPawnに今作ったPawnを設定して、そのGameModeがデフォルトで使われるようにします(VIVEFocus無関係なUE4の部分なので、省略します)。
これでデプロイするとこんな感じで、なんとなくコントローラーの向きだったり、入力だったりを取れます(コントローラー関連だとController Loaderとかもありますが、長くなっていくので今回はなしです)。
####フロントカメラについて
たぶん後で追記します。
##さいごに
基本SDKの公式ドキュメントベースですが、ちょっと足りないところがあった感じだったので、こういった形で最低限をまとめ直した形で、諸々の手順を記載しました。
実際Pluginの導入部分だけでも色々とまだ開発途中という状態を感じられたかとは思いますし、WaveVRプラットフォーム自体、日本ではDaydream以上にマイナー感がありますが、
VIVEFocusのハード自体はスライドにも記載したようにすごくいい点があるので、選択肢の1つとして考えられたらと思います(VIVEFocus自体がまだ開発者向けの販売というのはありますが)。
せっかく最初からビデオシースルー使えるスタンドアロンVRHMDなので、それ系も何か作れたらいいな。
明日は12日目、@FumiyaShibusawaさんです。