Edited at

Vtuber用ツール(3Dモデル作成・トラッキング連動)覚書

More than 1 year has passed since last update.

絵をかけないアンドBlenderわからない初心者が3Dをやろうとすると、基本的にVRM形式のエコシステムに取り込まれる仕組みになっていることがわかった。


3Dモデル作成支援


VRM出力のみ

・Vカツ(8月末より)

・Vroid


MMDほか出力対応

・Blender

・番外(開発中だそうです)https://twitter.com/xuarx

・Hitogata(pmx, fbxエクスポート可能)


出力なし

・Vカツ(8月末まで)

・カスタムオーダーメイド3D2


3Dモデルを動かす(Webカメラ)


VRM対応

・3tene

・Wakaru https://store.steampowered.com/app/870820/Wakaru_ver_beta/

※モデル導入にUnityが必要なようですが、詳しい手順が私にはわかりませんでした……要チャレンジです

・Hitogata(ソフト内でモデル作成も可能)


VRM非対応

https://qiita.com/nise_aoi/items/7e1aca3506a05aa20644 (MMD対応)

・FaceVtuber https://qiita.com/kotauchisunsun/items/dd2aa895321a55faf1a1 (MMD対応)

・FaceRig(Blenderモデル対応)


3Dモデルを動かす(HMD)

・バーチャルキャスト(VIVE対応)

・FlipsideStudio(海外製ソフト・VIVEとOculusRift対応のようです)

HMDほしいです…。


その他

・Kinect https://materializer.co/lab/blog/14 (MMD対応、VRM対応なし)

・Oculus+Kinectも(まだ調べてないが)おそらく同様にMMD対応のみか、Blenderモデルのみと思われる


音声出力

・ゆかりねっと+Softalkで声→字幕(クロマキー動画)・音声出力

※いわゆるゆっくり実況です

参考:

https://talkstone.web.fc2.com/

http://blog.livedoor.jp/yukkurim/archives/1064066435.html

http://ch.nicovideo.jp/ironia/blomaga/ar1468999

http://tatssuki.hatenablog.com/entry/2013/04/29/225600

http://yukkurilemon.blog29.fc2.com/blog-entry-7.html

・ゆかりねっと+VOICEROID2以降で声→字幕(クロマキー動画)・音声出力

・テキストを字幕に反映&並行してTTSソフトで音声出力

(TTSソフトにはTextalkなどがあり、Softallkよりも音声が豊富なのが利点だが、字幕反映と音声にモーションを当てる手間がかかる)

ボイスロイドほしいです…。


BGM素材

H/MIX GALLERY

http://www.hmix.net/music_gallery/feeling/happy.htm

商用利用でない場合に限り無償

Peritune

http://peritune.com/

商用利用含め無償・ループ素材あり

どちらもハイセンスです


録音・録画

OBS Studioを使用します。Hitogata単体でも録画・録音は可能ですが、OBSに「外注」したほうが要求スペックが少ないらしく、うちの低スペック気味パソコン(古めのMBA)でも比較的スムーズでした。

https://www18.atwiki.jp/live2ch/pages/491.html


追記:Blender入門サイト

https://blender-cg.net/

http://www.cgradproject.com/tutorials/blender%E5%85%A5%E9%96%80/


追記:こんなQiita記事がありました

https://qiita.com/Hirosaji/items/83777124823683766d96


追記: こんなブログ記事等がありました

http://greety.sakura.ne.jp/redo/2018/07/vtuber201807.html

アバター技術を網羅性高くまとめてくださっています。

http://virtualyoutuber-sokuhou.com/?p=596

https://medium.com/@GOROman_1661/%E4%B8%AD%E3%81%AE%E4%BA%BA-%E4%BA%8C%E6%AC%A1%E5%85%83-%E3%81%AB%E3%81%AA%E3%82%8B%E6%96%B9%E6%B3%95-facerig-live2d-unity-obs-avvoicechanger-%E6%B0%97%E5%90%88-d49c3d456ed6

GOROmanさんはさすがです…。

http://greety.sakura.ne.jp/redo/2018/01/how-to-vtuber.html

https://monappy.jp/memo_logs/view/Clses/3135

http://shop-0761.hatenablog.com/entry/2018/01/08/034418

https://materializer.co/lab/blog/74

https://www.slideshare.net/naokiaso75/unite2014-live2d-x-unity-x-kinect-2

これを見ると(2012年)、当時より技術開発にチャレンジされてきた方々のおかげで、今のVR隆盛があるのだと実感できます。


追記: WindowsでのKinect使用方法

https://wpteq.org/windows/windows10-manual/post-22791/

https://thinkit.co.jp/story/2012/07/03/3605

https://www.moguravr.com/virtual-youtuber-nora-cat/