概要
前回の記事「[FirstVR] oculus Goで、コントローラと組み合わせて遊んでみる」の、ある意味続編です。
内容としてはそれをベースに少し考察をする、という感じのものになります。
前回の記事を書いて、実際にoculus GoでFirstVRを使って遊んでみたのですが、まだまだ他に使いみちがありそうだなと感じたのでそれを書こうと思います。
FirstVRをサポートデバイスとして利用する
もうひとつの入力デバイス(サポートデバイス)として利用するとはどういうことか。
前回の実装を行ってみて感じたのは、だいぶ思ったとおりに操作できるということ。
そして複数ジェスチャが登録できる点を踏まえて、例えばoculus Goのコントローラでは難しいUIの選択操作を、ジェスチャにまるっと委譲してしまうことで操作がシンプルになるのでは、ということです。
複数ジェスチャをショートカット的に使う
考えているものは、複数登録したジェスチャをショートカットとして利用する形です。
PCであれば⌘ + wとか、Ctrl + Cとか、色々なショートカットを利用して操作するのが普通だと思います。
ちょっと脱線しますが、自分はAutoHotKeyを愛用していて、開発でよく使うツール(Visual StudioとかUnityとか)をホットキー登録してショートカット一発で呼び出せるようにしています。
AutoHotKeyを使うとホットキーをプログラムできるため、自分が思った通りにショートカットを作成することができます。
つまり、既存のショートカットを覚えるのではなく、「自分はこれが手に馴染む」という理由でショートカットを登録することができるわけです。
なにが言いたいかというと、oculus Go含めVRというのは得てして「なにかを選択する」というのが思いの外、思い通りにならないものです。
そこでFirstVRの出番、というわけです。
カスタムジェスチャであれば、そもそも自分がこれでやる、とジェスチャを決めて登録し、それをショートカットとして使用することができます。
自分は普段ゲーム制作しているのでゲームをベースに考えますが、例えば、「力を溜める」という動作は自分は「グー」のイメージですが、もしかしたら「パー」のイメージがある人もいるかもしれません。
(実際、ドラゴンボールの悟空は手をパーにして気を溜めるしw)
つまり、開発者が決めた通りのものではなく、ユーザ自身が直感的、と思う方法で操作してもらうことができるわけです。
「直感的」を本当の意味で直感的にする
ゲームを作っていてとても感じるのが、「直感的」って「その人に取って直感的」という意味であって、全人類共通の言語ではない、ということです。
またその背景は、生きてきた環境に依存し、その状況で培われた(醸成された)感覚なわけです。
つまり「偏見」だと思うんです。
ただもちろん、PS4の世界で生きてきた人に取ってはその世界のルールに沿うことは直感的になるのはある程度共通になるかなとは思います。
でも、最近プレイした「レッドデッドリデンプション2」では、○ボタンがキャンセルでxボタンが決定というルールでした。
(外国ではそういうケース多いみたいですが)
これ、完全に直感に反してますよね。
そしてVRだとそれが顕著に起こる。
そりゃ主観視点でプレイするわけですから当然です。
そこで問題になるのがこの「直感的問題」。
開発者が「これが直感的だろう」と考えて実装したものは、万人に共通ではないわけです。
ならばいっそ、それを本人自身が「直感的だ」と思う方法に任せてしまう。
それを可能にしてくれるのが、この「ジェスチャ登録」だと思うわけです。
実際にデモを作ってみた
ということで、この考えをベースに作ってみたのが以下の動画。
FirstVRのカスタムジェスチャを使って武器チェンジ #FirstVR pic.twitter.com/aLMRSbH7GW
— edom18@VR (@edo_m18) January 31, 2019
これまた銃で撃つシューティングですが、動画を見てもらうと撃ち出す弾を、エネルギー弾 or ロケット弾と撃ち分けているのが分かるかと思います。
これもちょっと分かりづらいですが、カスタムジェスチャを利用して「グーの場合はエネルギー弾」「パーの場合はロケット弾」として設定しています。
(もちろん、グー・パーに限らず、FirstVRが許すジェスチャであれば自由に設定できます)
この動画では設定する部分が映っていませんが、若干左上に映っているUIを利用してグー・パーを登録したあとの動画になってます。
そしてこれを利用することで、あくまで最初に登録したジェスチャに則って、プレイヤーが「この弾を撃ちたい」と思ったらそのジェスチャをして銃を構えて撃つだけ。
なのでボタンはトリガーのみの操作になっています。
そして、エネルギー弾かロケット弾かを選択しているのはもう片方の手に取り付けられたFirstVRからの入力で行っています。
試していませんが、コントローラを持った方の手にFirstVRを取り付けて、さらにその手の握り方でカスタムジェスチャとして認識してくれるなら、さらに面白いUIが作れるかもしれませんね。
今回は2パターンだけでしたが、いくつか登録ができるので必要な数を割り当てるといいかもしれません。
(が、そこは人間の手の形の限界とFirstVRの認識できる範囲の限界があるのでなんでもかんでも、というわけには行きませんが、武器を2~3種類変更するくらいなら簡単です)
コントローラの操作って、ゲーマーでない限り実はそこまですぐに操作できるものではないと思うんですよね。
なので、こうした「ジェスチャ」というのは今後主流になっていくのかなーなんて感じています。
Hololensもジェスチャで操作しますし。
今年、2019年はAR元年(デバイス的な意味で)だと思っているので、このあたりは注目していきたいところですね。