LoginSignup
5
2

More than 1 year has passed since last update.

UnityのLive Captureを使ってアバターに表情をつけて仮想カメラで出力する

Last updated at Posted at 2022-12-11

ラーメンセット カタ

DSC_0069.JPG

はじめに

オンラインでのビデオ通話するときに、アバターで登場することも増えてきてますね?

そういったときに、以前はAnimazeを使っていました。

Webカメラだけで完結できるのでとてもお手軽です。

こんな感じになります。

これでも十分すごいですが、例えばカメラアングルの自由度とか、トラッキングデバイスのサポートとかはどうしても限られてしまいます。(それでもLeap Motionに対応してたりとかすごい)

それに対して、例えばUniyを使えば、VR用トラッカーとか使って手を動かしたり、複数のカメラを一定時間ごとに切り替えたり、好きなアニメーションを付けたりとか、いろいろ自由にできるようになるなと思いました。

いろいろ調べた結果、なんとか実現できたので、その方法を紹介します。

完成動画

必要なもの

  • iPhone
  • Unity
  • HANA Tool (有料)

あと他にいくつかツールがありますが無料です。

ARKitまわりに詳しくないので、どのiPhoneならちゃんと動かせるのかはちょっと定かではないですが、FaceIDが使えるiPhoneだと使えるのではないかという感じです。

OSはWindowsで作業しています。Macの場合、最後に出てくる仮想カメラのソフトウェアが対応していない可能性があります。

iPhoneの作業

Unity Face Captureをインストール

image.png

※Wi-Fiを使いPCと同じネットワークに接続する必要があります(推測

アバターを作る

VRoid Studioを使います。

私はSteam版を使っています。

一通り好きなパーツを選んでアバターを作成したら、VRMエクスポートします。

image.png

エクスポートの設定で、透明メッシュを削除するのチェックを外します。

image.png

エクスポートします。

image.png

UniVRMでVRMをUnityにインポート

先ほど作ったVRMをUnityにインポートしていきます。

VRM形式はそのままでは扱えないので、UniVRMを使います。

インストール方法
https://vrm.dev/univrm/install/univrm_upm.html

インストール後、VRMファイルをUnityにドラッグアンドドロップすると、処理が走った後にたくさんファイルが出現します。

image.png

プレファブをそのままシーンかヒエラルキーにドラッグすると、表示されるのがわかります。

image.png

image.png

HANA Toolでブレンドシェイプの追加

インポートしたアバターは、表情のブレンドシェイプがまだ足りてないので、HANA Toolを使って追加していきます。

HANA Tool
https://booth.pm/ja/items/2437978

インストール

購入すると.unitypackageがダウンロードするので、Unityにインポートしておきます。

プロジェクトウィンドウにドラッグアンドドロップするとか、Assets > Import Package > Custom Package...など

ブレンドシェイプの追加

インストールすると、メニューバーにHANA_Toolという項目ができますので、Readerを選択します。

image.png

SkinnedMeshRendererのところに顔のところのコンポーネントを設定し、PerfectSync_VRoid_v1_0_0_Female.txt(もしくはMale)のラジオボタンを選択してRead BlendShapesを押します。

image.png

うまくいくと、「変換完了」というダイアログが出て、ブレンドシェイプが追加されます。

image.png

ここで、透明メッシュの設定を確認してください等のメッセージが表示された場合、VRoid Studioでのエクスポートの時に、透明メッシュを削除するというチェックボックスがオンになっている可能性があります。

裏では、新しいメッシュが作られて、それが紐づけられるみたいです。

image.png

Prefabの保存

この後の作業の兼ね合いで、いったんPrefabかPrefab Variantとして保存しておきます。

image.png

Live Captureでアバターの制御と表情トラッキング

次に、アバターのブレンドシェイプを制御するためのパッケージをインストールします。

ここのインストールの仕方はUnityのバージョンによって表示が異なることが多いです。

Window -> Package Manager

image.png

Packages: Unity Registryとなっていることを確認して、Live Captureを探します。

image.png

Installボタンを押します。

image.png

参考マニュアル

アバターのセットアップ

HANA_Toolでブレンドシェイプを追加したプレファブを開き、プレファブモードに入ります。

image.png

ARKit Face Actorコンポーネント

ARKit Face Actorコンポーネントをアタッチします。

image.png

FaceMapperアセットの作成

FaceMapperアセットを作ります。プロジェクトウィンドウで右クリックして、Create > Live Capture > ARKit Face Capture > Mapper

image.png

作成されたFaceMapperを選択してインスペクターを見ると、何か選択するところがあります。

image.png

ここにいま編集中のプレファブを入れます。

image.png

こんな感じで項目が出てきます。

image.png

FaceMapperの設定

EyesとHeadの設定。

image.png

次にAdd Rendererを押すと、Faceという項目が出るのでこれを選択します。

image.png

(プレファブ内のSkinned Mesh Rendererの中からBlendShapesがあるものがリスト表示されると予想)

自動的に検知してくれて、いい感じにいろんなブレンドシェイプがマッピングされていきます。手動でいろいろカスタムすることもできそうです。

image.png

作成したマッパーをセット

最後に、ARKit Face ActorコンポーネントのMapperの欄に、作ったFaceMapperアセットをセットします。

image.png

ヒエラルキーに配置

プレファブモードを解除します。

アバターのプレファブをヒエラルキーに配置します。既にしてるかも。

iPhoneからのフェイスキャプチャの情報を受信するためのセットアップ

Take RecorderコンポーネントとARKit Face Deviceコンポーネント

まずは任意のゲームオブジェクトにTake Recorderコンポーネントを付けます。

image.png

Playable Directorも一緒にくっついてきます。(今回は使いません)

image.png

Take Recorderの子オブジェクトに、ARKit Face Deviceコンポーネントを作成します。

image.png

Actorのところには、ヒエラルキー上に配置したアバターをセットします。

image.png

先ほど作った2つのコンポーネントはこのような親子関係になってると思います。

image.png

Take Recorderの方を見ると、Capture Device欄で子要素を自動的に検知しています。

image.png

なので、親子関係はTake Recorder > ARKit Face Deviceの順になってなければなりません。

iPhoneから接続するサーバーの立ち上げ

メニュー > Window > Live Capture > Connections

image.png

Connectionsウィンドウが表示されますので、まずはConfigure Firewallをクリック。

image.png

後でWindows Defenderファイアウォールの詳細設定をのぞくいたら、それらしき設定ができていました。

次に、Create Serverをクリックします。

image.png

動作確認(飛ばしてもいい)

この状態で、フェイスキャプチャの動作確認をすることができるようになりました。

iPhoneでUnity Face Captureアプリを立ち上げ、Unityでプレイを実行します。

image.png

iPhone側でConnectボタンが青くなって押せるようになるので、

image.png

Connectを押すとUnityと接続されます。

iPhoneの方にはインカメラの映像が表示されます。
(Client not Assignedって出ますが、Unityの方では反応していて使えてるのでこのまま使ってます)

image.png

Unityを見ると、アバターが動いていることと思います。
(この手順そのままだとTポーズとかになってるかも)
(もしかしたら首だけ飛んでいって大変なことになってるかも)

image.png

首が飛んで行った場合は、ARKit Face ActorでHead Positionのボタンをオフにすると解消するかも

image.png

仮想Webカメラの設定

フェイストラッキングができたので、あとはUnityの映像をライブ配信などのソフトに送る必要があります。

手短なのはUnityのゲームウィンドウを最大化して、デスクトップキャプチャなどをすることです。

しかしそれではデスクトップで他のアプリの表示などができなくなりますので、ここは仮想Webカメラに出力できるようにしようと思います。

仮想カメラをインストール

Spoutをインストールします。

Spoutのサイトに行って、Downloadをクリック。

image.png

ここからちょっと記憶があいまいですが、確かSpoutCamだけインストールすればよかったような。

image.png

Zipの中はこんな感じになっているのですが、わかりやすいインストーラーなどはありません。

image.png

ここも記憶があいまいなので詳しくはreadme.txtを読んでほしいのですが、SpoutCam32またはSpoutCam64のなかにある_register_run_as_admin.batを実行(管理者として実行が必要かも)するとインストールされます。

Unityから映像送信

そして、インストールした仮想カメラにUnityから映像を送らなければなりません。

以下のライブラリを使います。

インストール

README.mdにあるHow to installに従って、Packages/manifest.jsonを編集していきます。

レンダーテクスチャ作成

プロジェクトウィンドウで右クリックCreate > Render Texture。

image.png

インスペクターで解像度などを設定します。

image.png

カメラ

ヒエラルキーにカメラを追加して、Target Textureに先ほど作成したレンダーテクスチャを指定します。

image.png

Spout Senderコンポーネント

ヒエラルキー上の任意のゲームオブジェクトに、Spout Senderコンポーネントを付け、Source Textureに先ほど作成したレンダーテクスチャを指定します。

image.png

※書いてて見つけたんですが、Capture MethodをGame ViewもしくはCameraに設定したほうが、レンダーテクスチャも要らず、かつお手軽かもしれない。

OBSなどでウェブカメラを選択して表示する

SpoutCamをインストールすると、Webカメラとして選択できるようになりますので、OBSなどの配信ソフトで表示するもよし、DiscordのWebカメラとして使うもよし。

OBS Studio

image.png

Discord

image.png

あとは如何様にも。OBSで録画するもよし、Discordで通話するもよし。

おわりに

以上で手順は終わりです。

(再掲)完成動画

だいぶ手順が長くなってしまいました。

こちらのビデオとかも参考にするといいかもしれません。

また、パーフェクトシンク対応のアバターなんかは、最初から必要となるブレンドシェイプが入ってたりするので、それを使うこともできます。

Boothにて検索すると、けっこうヒットします。

ちなみに、背景には以下のアセットを使いました。

あとはFinal IKなんかを使ってアニメーションとブレンドしたりしているのですが、それはまたいつかの機会に。

それでは

5
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
5
2