0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Unityのarfoundation-samples挙動確認 (Face tracking / Body tracking / Image tracking / Object tracking)

Posted at

About

Unity Manualに記載がある'Feature samples'について、各項目が何を行っているのかをまとめました。

まとめ

  • 'Feature samples'のうち、下図の赤枠にある4つの機能について確認しました。
  • アプリにおいては最初の4ボタンが該当します。
    • グレーアウト項目はXperiaで無効のため、iPhoneにて動作を確認しています。
  • 単純なビルドでは動作が確認できないものが何点かありました。後日追加確認する予定です。
    • Image tracking
    • Object tracking

本編

Image tracking

Object tracking

いずれの項目ともシーン内で情報の登録が必要なようでした。後日追加確認します。

Face tracking

私の顔を映してもしゃーないので、モニタ上の顔に対して検出をかけました。画像認識で有名な例であるLennaの画像を使おうとしましたが、適切でない可能性があったため、Copilotが生成した画像を使用しています。

Face pose

検出した顔の中央付近から、左方向、上方向、奥方向にそれぞれ赤、緑、青のオブジェクトを表示するサンプルです。

Face Mesh

検出した顔にマスクをつけるサンプルです。同時に追跡可能な顔の数など、デバイスの対応状況も表示されます。

Face regions

ARCore専用機能で、顔の特定部位の座標を検出するサンプルです。サンプルでは鼻と両眉の位置を検出しています。

Blend Shapes

ARKit専用機能です。ウィンクや眉を顰めるといった表情(Blend Shapes)をブレンドするサンプルです。何かの哺乳類の顔で人の顔を上書きします。

Eye Lasers・Eye Fixation Point

ARKit専用機能で、目線、目の位置、注視点をそれぞれ検出した結果を描画します。

Eye Lasers Eye Poses Fixation Point
alt text alt text alt text

Fixation Pointはほかの機能と比べ、実際に試した範囲ではあまり精度が高いとは思えませんでした。
おおまかにスクリーンを上下左右6領域に分けて、どの領域を見ているかが分かる程度なら使えそうでした。

Rear Camera

ARKit専用機能です。背面カメラでビデオシースルーARを行うと同時に、前面カメラでユーザの顔を認識した結果をオブジェクトとして表示するサンプルです。

画像は机を背面カメラが映しつつ、前面カメラが私の顔をとらえオブジェクトに反映しています。

Body tracking

2Dと3Dのサンプルがあります。2Dの場合はスクリーンベース、3Dの場合はワールドベースで人体がトラッキングされます。今回の検証では最大検出人数は1人でした。

2D 3D
alt text alt text
0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?