「Spatial Interface Design: Guidelines for Designing & Developing in AR」とは?
AR HMDを開発しているMeta社がARにおけるUI/UXの構築のために過去二年間の研究の結果をガイドラインとしてまとめたものです。実践的なUIデザインと同時に脳神経科学からのUI/UXへのアプローチがなされています。
当記事はこの文書の内容を要約したものです。
なるべく内容を簡潔にするため、意訳が多分に含まれているため原文とは順序や表現方法が異なる箇所があります。
※題に含まれるの「Spatial Interface」はここでは”空間インターフェース(または空間ユーザーインターフェース)”としてます。
参照元
https://pages.metavision.com/meta-augmented-reality-design-guidelines
※上記ページから氏名とメールアドレスを登録するとDLリンクが記載されたメールが届きます
導入
人間は三次元世界に生まれ物体を三次元のものとして認識するように進化してきたが、コンピューターが生まれて以来、
ウィンドウ・アイコン・メニュといった二次元的で抽象的な2Dインターフェースは人間にしばしば脳が理解することを強いる。
ARはこの抽象的な二次元インターフェースからより自然な三次元インターフェースを実現可能にする。
WindowsやiOSなどの二次元インターフェースを三次元空間にそのまま移植することは簡単だが、ARはこれまでとは異なった新しい表現方法が可能なので、これらのUIを一から考慮し直すことは重要である。
私達(Meta)の究極のビジョンは”ゼロ学習カーブマシン”である。すなわち、人間の感覚がごく自然に拡張されると感じられるようになること。そこまでの道程は長くまた技術的限界もあるが、妥協は最小限に留めなければならない。
スクリーンベースのGUIは過去50年間のコンピューティングを定義付けたものだが、ARはこの制約から開放し今後50年を定義づける空間インターフェースの時代が来ている。
空間コンピューティングのための科学的枠組み
ユーザーがなんらかのタスクを実行する際、そのタスクに関連付けられたツールを探そうとする。
最適なインターフェースとはこのユーザーが直感的に意識するツールを活用しタスクを達成するための労力を削減するものである。
もしインターフェースが現実世界の直感ではなく、抽象的なアイコンやジェスチャー、キーボードショートカットのようなものに基づいている場合、
ユーザーはそれらとタスクを紐付けるために脳全体を使ってそれらを再定義する作業を余儀なくされる。
【ガイドライン1】空間にツールとコンテンツを配置する
ウィンドウ、メニュー、ボタンなどのフラットなレイアウウトをユーザーの周辺の3次元空間に”ツール”と”コンテンツ”を配置する空間インターフェースで置き換える。
従来のメニュー、ボタン、抽象的なアイコンなどの代わりに、”立体的ツール”と”コンテンツ”の2つの構成要素に分割して配置する。
”立体的ツール”はユーザーの直感に基づいている必要があり、また”コンテンツ”は抽象的で平坦な形状の場合もあり、現実的で立体な形状の場合もある。
例えばテキストやビデオは平坦だが、なんらかの立体的な構造物に埋め込むなどの必要がある。一方3Dモデルはもともと三次元なので独立したオブジェクトとして存在しうる。
伝統的な従来のUIのフラットな世界をそのまま三次元世界に模倣するのではなく、アートスタジオやワークショップのような実際の作業現場から着想を得る必要がある。メニューやボタンなどではなく、実際にユーザーが把握できるようなツールを考えるべきだろう。
【ガイドライン2】ボリュームとアフォーダンスを考慮した設計ツール
アイコン等の抽象的な表現を、立体的であからさまな説明を必要としないツールに置き換えるためにそのオブジェクトをどのように設計したらいいだろうか。
第一にアフォーダンスを考慮した設計がなされるべきである。(例えば消しゴムの場合一方の側は掴むための溝を用意し、もう一方の側は消すための平面がある、など)アフォーダンスを考慮して設計されたオブジェクトやツールは、抽象的なアイコンなどよりも速く深く理解することができる。
そして、独自のツールを定義するのではなく、ユーザーの事前知識に基づいて設計すべきである。これにより、ユーザーはそのツールがAR上でどのように機能するかを理解しやすくなる。
また、ボタンの使用は極力避けるべきである。例えばメール送信時でのOK/キャンセルなどのボタンの代わりにユーザー自身がメールをドロップできる箱を提供する。
ユーザーの直感を活用して学習コストを減らすために、アフォーダンスは空間インターフェース設計において重要な要素である。
また、このガイドラインを効果的に使用するためにはユーザーの予備知識を理解することも重要である。
【ガイドライン3】ユーザーの周辺空間にホログラフィックファイルとツールを構築する
従来の抽象的で複雑な階層を持ったファイルシステムを、脳が理解する空間上にファイルシステムを置き換えることによって、
ユーザーがごく自然にファイルの内容を追跡することができる。
例えば、ユーザーが実空間上の机の特定の領域にオブジェクトを配置すればユーザーはその空間的記憶によってあとで検索することが簡単で迅速になる。
また、そのオブジェクトには抽象的なフォルダやファイルシステムではなく、立体的な入れ物を使用するべきである。これらの入れ物は深い階層構造になっていない限り、人間工学的に簡単にファイルを取り出すことができる。
これらの入れ物は入れ子の構造にするべきではない。入れ子になっているとユーザーの空間的記憶が過負荷になり、ファイルを直感的に理解できなくなる。
ユーザーがオブジェクトを選択しているとき、選択されていないその他のオブジェクトは非表示にするべきでなはい。非表示にするとユーザーの空間記憶の完全性が損なわれるためである。非表示にするのではなく、選択されたオブジェクトをハイライトする。
一方で、コンテンツやツールを小型化(またはその逆)をすることは空間的記憶を混乱させることなく、ユーザーの作業空間を最大化することに有効である。
【ガイドライン4】手で直接触れる
脳は自然に手の近くにある物体を認識しやすい。ツールやそれらで操作されるコンテンツは物理的に又は空間的に分離されるべきではない。
すなわちユーザーが離れたところからコンテンツを操作したりジェスチャーやボタン、メニュー等の抽象的なものを仲介して操作させるべきではない。
また、ユーザーの身体的な動き、つかみ・押し広げるなどの動作がオブジェクトに反映される必要がある。拳を開いたり手を振ってオブジェクトを広げたりするなど、ユーザーが最初にその動作と機能を覚えなければならないジェスチャーに関連づけてはならない。
また、ショートカットのようなインターフェースは確かに操作を高速化するが、ほとんどのユーザーにとって馴染みのないものである。
ユーザーがオブジェクトやコンテンツを使用したときや触れたときは近接フィードバックを提供する。こうすることにより触覚の欠如を補い、衝突や動きを強調することができる。
脳の大部分はユーザーの手と周囲の空間の認識に費やされているため、この能力を利用することで学習コストを減少させることが可能となる。
一方、ユーザーのインタラクションの対象から物理的空間的に離れているインターフェースの場合はこの利点が失われる。
【ガイドライン5】ユーザーのワークフローを中断させない
空間コンピューティングではポップアップでユーザーのワークフローを中断させるのではなく、着信通知を収集するためにコンテナを指定できるような空間通知が必要である。
これにより、ユーザーは自分の仕事に集中することができ、必要に応じて更新をチェックするだけでいい。
一方で、重要なアラート等の場合はユーザーはその通知を自分の視界に持ち込むか音声通知を行うようにするかを選択できるようにしておく。
ユーザーが自分のワークスペース内に通知を配置させることを選択した場合でも、急激なアラートではなく段階的なビジュアルやオーディオキューを使用することを検討すべきである。
【ガイドライン6】直感的な結果を伴うペアアクション
ユーザーの行動やそれ以前の原因とは無関係に見える”魔法の”事象や物理法則を無視した事象はユーザーを混乱させるだけなので回避すべきである。
”魔法”とはユーザーが直感的ではない原因や結果をもたらすものである。例えば魔法の杖はその外観はただの棒であり、また特定のタスクに関連付けるアフォーダンスが存在しないためユーザーを混乱させる。
また、ユーザーは魔法の杖を使用したことによって発生した結果を予測することができない。
オブジェクトが合理的な方法で応答しないときもユーザーを混乱させる。
例えばホログラフィックのアイスキューブを静かに押して机の上を滑るような動作をする場合でも、900m/hで部屋を横切って飛んではいけない。
アクションと効果の間に明確な関連性をもたせることが必要である。
【ガイドライン7】UIで手と顔を覆い隠さない
我々の祖先はペアでも部族でも対面するように進化してきた。したがって我々は目の凝視と他人の表情に対して非常に敏感であり
脳の専用領域がそれらの感覚を継続的に知覚している。
視線に対する我々の知覚はその周辺にまでおよび、他の誰かが興味のあるものを見ているときにすぐに気づく。
同じ場所でお互いに作業をするような場合、お互いの顔の視界を妨げないようにするUIを構築する必要がある。
このような物理空間内ではインターフェースはユーザー間ではなくユーザーの周辺に配置すべきである。
共同作業がリモートで行われているかどうか直接かどうかは関係なく、インターフェースはかくユーザーの手の位置を明確に示す必要がある。
ユーザーの手が他のユーザーの視界内に収まると共同作業やデモンストレーションから学ぶ能力が高まる。
また、リモートで共同作業をする場合、アバターや仮想キャラクターの代わりに三次元ビデオを使用すべきである。
静止画像やアイコン、仮想キャラクタのような人工的な表現ではコミュニケーションの精度を低下させ、認知的負担や社会的不安を向上させるだけである。
【ガイドライン8】デフォルトで公開の状態にする。共通の理解はユーザー間の不安を軽減する。
我々は他者の意図を図るために我々の周りの人に姿勢、動き、行動を絶えず観察し、他者の心を推し量るように進化してきた。
ARの中でユーザーのコンテンツが他のユーザーに見えないように置かれている場合、その行動は何もない空間に対して行われているようにみえるため、
この物理的な世界で学んだ能力を混乱させる。
デフォルトでは他の人のコンテンツが閲覧できるようになるべきである。
現実世界で同じ物理的環境を見るように、すべてのユーザーは同じホログラフィック環境を見られるようにしておくべきである。
GoogleGlassなどのデバイスは対面していても秘密裏に攻撃的・侵入的な操作を可能にするため、インターフェースへの不信を煽る。
気密性の高いコンテンツを許可されていないユーザーから見えないようにする必要があるような場合、
現実的空間と同様に、ホログラフィックなカーテンや遮蔽物を表示してプライバシーを確立する。
この手法は全てのユーザーに一貫性のあるエクスペリエンスを提供し、何もない空間にたいして実行されるジェスチャーの違和感を排除する。
【ガイドライン9】ユーザーの知覚を関連情報で強化する
AR(拡張現実)インターフェースによってユーザーの視界内に追加された画像や文章が現実世界に違和感なく追加されると、ユーザーは直感的かつ効果的に理解することができる。
拡張現実は関連する情報やツールを我々の周辺の世界と結び付けることによって環境・タスクに対する理解を深めることができる。
例えば花の近くに置かれた花についてのWikipediaのページが表示されたパネルは、花を遮蔽せず花に触れることができ、拡張現実とみなされる。
この例は周囲の環境との関連性を強化し、メタUIのインスタンスを表現する方法を示している。
対象的にジムのフロアをプールの表面に返るような体験は、不必要な混乱を引き起こしそれがどのように動作するかについてユーザーに誤解を与える。
実際のオブジェクトの物理的特性を変化させたり歪ませたりするからである。
ゲームでは「壁を壊す」ことや過度に歪んだビジュアルで覆い尽くすのではなく、実際のユーザーの環境を仮想キャラクターが通過できるようにすることをおすすめする。
一方で、内装などの特定の使用では、環境の瞬間的な変更は許容される。このユースケースは実際の世界の物理的特性の変更や改善につながるからである。
ユーザーはユーザーが実際の世界のよりより計画を立てられるようにすることによって、ユーザーの現実世界とのつながりを強化させることができる。