12
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

弁護士ドットコムAdvent Calendar 2020

Day 4

iPhoneX以降のTrueDepthカメラを使ってオンライン会議で簡単にVTuberになる方法(お金がちょっと掛かります)

Last updated at Posted at 2020-12-03

この記事について

この記事は、弁護士ドットコム Advent Calendar 2020の 4 日目の記事になります。
今回の私の記事はかなりネタ的な内容になっています。
真面目な素晴らしい記事は他のエンジニアが書いてくれるので楽しみにしてください。

はじめに

さて、みなさんリモートワークとビデオ会議にだいぶ慣れてきたのではないでしょうか。
中には Snap Camera などで顔を加工したり背景いじったりしている人もいるかもしれません。
Snap Cameraに関しては色んな記事があるかと思いますので見た人もいると思います。

さて、昨今VTuberがYoutubeの収益トップランキングを総なめしたりと話題になっているかと思います(ちなみに記事の動画で出ている潤羽るしあですが、潤羽るしあ 初号機 で是非検索してみてください)。
自分もビデオ会議でVTuberになってみたい・・・と思ったことがあると思います。たぶん。

これを実現にするには下記技術要素を搭載したソフトウェアと機材が必要になります。

  • カメラ
  • Face Trackingソフトウェア
  • 仮想カメラ機能搭載の配信ソフトウェア
  • Live2Dもしくは3Dモデルデータ

なんだか難しそうな上にお金もイラスト/3Dモデル作成能力も必要で無理そう・・・に思えますが、お金を少し出せば簡単にできます。

なお、どうしても無料でがんばりたい場合はUnityUnreal Engineなどで作る必要があります。
Unityで試しに開発してみましたが、最低限のことやるだけならなんとか開発できました。AR用のライブラリや無料アセットがあるのでそのあたりを組み合わせれば初心者でもどうにかなります(本当に最低限のことができるだけで需要はなさそうなので記事にはしませんが・・・)。

VTuber用Face Trackingソフトウェアの最新事情(2020年11月)

さて、多少お金を出すと決めれば選択肢はいくつか出てきます。

  • FaceRig
    • 古参のFace Trackingアプリ
    • 恐らく一番有名で日本語解説記事も沢山ある
    • 1480円ぐらい
  • Animaze
    • FaceRig後継のアプリ
    • まだアーリーアクセス
    • とりあえず無料だが、月額課金すると色々機能が使える(年1000円ちょっとぐらい)
    • お金を払うとiPhoneのTrueDepthカメラを使用したトラッキングが可能になります
  • VTuber Studio
    • Live2Dに特化したアプリ
    • Pro機能を使う場合は$22.99
  • VUP
    • Webカメラだけで精度の高いトラッキングができて高機能で無料
  • VMagicMirror
    • VRMに特化したアプリ
    • 無料
    • キーボードやマウスを使う動作が付いてる
    • iFaceMocap対応
  • Luppet
    • LeapMotionを使う前提としたアプリ
    • お値段は6000円から応相談(エンタープライズ)まで
    • LeapMotion自体は1万数千円する
    • 顔だけじゃなくて上半身をトラッキングできる(手とか)
  • iFacialMocap
    • iPhoneX以上に搭載されているTrueDepthカメラを使ったトラッキングと、そのトラッキング情報をネットワーク経由で転送するアプリ
    • トラッキングと転送に特化してるので、モデルを読みこんで表示するとかそういう機能はない
    • お値段は$7.99

アバターをどうするか

イラスト描くのもモデリングするのもちょっと・・・という人が大半かと思いますので、いくつか候補をあげます。

  • Live2DモデルやVRMモデルを販売してるサイトがあるのでそこで買う
  • アプリに搭載されているアバターを使う
  • アプリのマーケットで販売されているアバターを買う
  • ネットで公開されている無料のアバターを使う
  • VRoid Studioで自分で作る
    • 使ってみましたが意外と簡単にいけそう

配信ソフトウェア

今回のアーキテクチャ

  • Windows PC
  • VRM
  • VMagicMirror
  • iFacialMocap
    • $7.99
  • OBS

この記事のタイトルにもある通り、色々試しましたがiPhoneのTrueDepthカメラのトラッキングが凄まじく精度が良く、ぐりんぐりんと動かせるので今回はこれでいきます。
iFacialMocap($7.99)は買う必要がありますが、このアプリはそれだけの価値はあると思います。
配信先はGoogle Meetsとしますが、Zoomでも設定は同様です。

iFacialMocap以外の選択肢

Animaze

Animazeも年1000円ぐらい出せばTrueDepthカメラが使えますが、こちらは現状アプリ内にあるアバターしかほぼ利用できないです(FBXなら対応してるけど利用難易度が高い)が、それでもよければこちらもお勧めです。

VTuber Studio

Live2Dモデルを利用するのはVRMよりも難易度が高いと思います。たぶん。
VRMモデルは色々な人が無料/有料公開してるので用意するのも簡単です。
また、VRoid Studioが使いやすいので、あまり凝ったものでなれば自分でも作れます。
イラストレーターがLive2D Cubismでモデル作って自分で使うには良いと思います。たぶん。
こちらもTrueDepthカメラ対応してます。

Luppet

ネタのためにLeapMotionとLuppetを買う余裕がある方にはお勧めだと思います。
上半身までトラッキングできるのはすごいです。
私はそこまでがんばれませんでした・・・

準備

VRMモデル

今回はVRoid Studioのサンプルモデルを使用します。
無料で使えるVRMモデルには東北ずん子などもあるので、お好みで使用してください。

1. インストール

VRoid Studioのサイトからダウンロードしてインストールしてください。
これ自体はMacに対応してます。

2. VRMモデル作成

VRoidStudioを起動すると画面にサンプルモデルの一覧が表示されます。

vroidstudio1.png

これの Vivi を選択して開いてください。

vroidstudio2.png

このまま何もパラメータをいじらずに保存してください。

vroidstudio3.png

VMagicMirrorインストール

BOOTHからダウンロードしてインストールしてください。
このソフトウェアはWindowsのみ対応です。

iFacialMocapインストール

iPhoneのApp Storeから iFacialMocap で検索してインストールしてください。
通信をPC側で取得するソフトも公式サイトにありますが、今回はこちらは使用しません(VMagicMirrorが直接通信を行う)。

OBS

OBSからダウンロードしてインストールしてください。
これ自体はMacにも対応してます。

組み合わせる

1. VMagicMirrorにVRMモデルをロードする

PC上のファイルをロード から先程保存したVRMファイルを選択してください。

vmm1.png

ライセンス情報などが表示されます。確認して OK を選択してください。

vmm2.png

VRMモデルがロードされます。

vmm3.png

2. VMagicMirrorとiFacialMocapを連携する

iFacialMocap を起動する前に、PCと同じローカルネットワークに接続できるようにしてください。
具体的には、スマホをWifi接続して、そのWifiと同じネットワークにPCが存在するようにしてください。

iFacialMocapを起動すると画面上部にIPアドレス(ローカルネットワークのIP)が表示されので確認してください。

ファイル_000.png

次にVMagicMirror側の設定をします。
Ex.Tracker タブを表示して、以下の画像のようにチェックボックスにチェックを入れていきます。

vmm4.png

アプリとの連携 項目で iFacialMocap を選択して、先程のIPアドレスを入力します。
その後 Connect ボタンを押すとVRMモデルとTrueDepthカメラが連携します。
動いて動作を確認してみましょう。

6pk38-r24oe.gif

※もしConnectをして接続が確立したとiFacialMocapに表示されてもVRMモデルが動作しなかった場合、セキュリティソフトのファイアウォール機能を一時的にOFFにするか、通信の許可を行ってください。設定方法はセキュリティソフト毎に異なるので説明はここでは割愛します。

3. OBSに画面を取り込む

OBSを起動します。
画像の赤い○印の箇所のの + ボタンを押して ウィンドウキャプチャー を選択してください。

obs1.png

どのウィンドウをキャプチャするか選択するの画面が表示されるので、 ウィンドウ 項目に VMagicMirror を選択してくだい。
そうすると下の画像のようにVMagicMirrorの画面が表示されるので OK を押して確定させてください。

obs2.png

OBSに画面にVMagicMirrorの画面が表示されますが、このままでは緑色のスクリーンが表示されたままになります。
そこで、この緑色を透過させます。
下の画像の赤丸のところにある ウィンドウキャプチャ の項目を右クリックしてください。
メニューが表示されるので、 フィルタ を選択してください。

obs3.png

フィルタ画面が表示されるので、下の画像の赤丸の部分の + ボタンを押して下さい。
メニューが出てくるので、 クロマキー を選択してください。
そうすると下の画像のようにクロマキーが追加され、設定ができるようになります。

obs4.png

クロマキーはデフォルトで緑色を透過させるようになってるので背景の緑色が消えていることが分かります。
しかし、上の画像をよく見るとエプロンの緑色も消えていることが分かると思います。
そこで、下の画像の赤丸のところの類似性パラメータを修正してエプロンの緑色を表示させるようにします。

obs5.png

こんな感じですかね。
これで 閉じる ボタンを押すとOBSのメイン画面に戻ります。
そうすると背景の緑色が消えているのが分かります。
このままだとVRMモデルが小さいので、ウィンドウキャプチャオブジェクトを選択して画面いっぱいに広げてください。
そうすると下の画像のようにいい感じになります。

obs6.png

配信してみる

1. OBSの仮想カメラを起動

まずはOBSの仮想カメラを開始します。
右下の コントロール仮想カメラ開始 ボタンがあるのでそれをクリックすると仮想カメラが開始されます。
そうすると下の画像のように 仮想カメラ停止 表示になるので、この状態になっていることを確認してください。

obs6のコピー.png

2. Google Meetsで設定

次にGoogle Meetsを起動します。
Google Meetsの会議室に参加する前に、設定画面から動画設定を行います。

obs7.png

カメラ 項目で OBS Virtual Camera を選択してくだい。
そうするとプレビュー画面にOBS画面が表示されます。

obs8.png

この状態になったら、今すぐ参加ボタンを押して会議に参加してください。

まとめ

ちょっと長くなりましたが、これでVTuberとして会議に参加できます。
また、OBSで画像や動画を背景として設定することも可能です。
是非色々とカスタマイズして地味なオンライン会議を華やかにしてみてください。

12
5
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
12
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?