0
0

More than 1 year has passed since last update.

Shap-E×DreamTextureで生成したモデルをPlayCanvasにインポートしてみよう

Last updated at Posted at 2023-07-03

Shap-E とは

自然言語または画像から3Dコンテンツを作成するAIの強力なデモンストレーションです。 これにより、コンピューターゲーム、インタラクティブなVRエクスペリエンス、プロトタイプなどの目的で3Dオブジェクトを作成できます。

DreamTextureとは

「Dream Texture」はCarson Katri氏作の「Blender」用アドオンです。 入力したキーワードや画像情報などを元に、画像生成AI「Stable Diffusion」を使ってテクスチャ画像を自動生成します。

PlayCanvas とは

PlayCanvasは、JavaScriptで作られたHTML5/WebGLで動作するゲームエンジンです。
インストールの必要もなく、開発から公開までWebブラウザ一つで動くクラウドにホストされるため、URLにWebブラウザからアクセスすることで複数人で開発、公開したコンテンツを一緒に遊ぶことも可能です。

かなりのハイポリゴン&テクスチャサイズと量を持っているキャラクターでも、問題無くweb上で動かすことができるのがPlayCanvasの特徴です。
品質の高いマテリアルセットをデフォルトで持っていますので、リアルな質感を出すことも容易に出来ます。

本題

今回は Shap-Eで生成した3Dモデルをカスタマイズし、BlenderアドオンのDreamTextureでテクスチャを生成し、PlayCanvasの3Dモデルビュワーでweb上から見られるようにしていこうと思います。まだshap-Eで生成される3Dモデルは精度が高くないのが現状ですが、今後に期待し実験的に行っていきたいと思います!

記事の内容は以下になります。

  • Shap-Eで3Dmodelを生成する
    • text to 3D
    • image to 3D
  • Blenderでシーンを整える
  • Dream TextureをBlenderにインストールする
  • Dream Textureでテクスチャーを生成する
  • PlayCanvasへインポートする

Shap-Eで3Dmodelを生成する

まずはHugging Faceへアクセスします。
https://huggingface.co/spaces/hysts/Shap-E
image.png

text to 3D

image.png
使用方法はとてもシンプルです。赤枠内に生成したいモデルのプロンプトを入力しするだけです。
ここでは、小さな家[small house]とだけ入力します。
image.png
Runボタンをクリックすると生成が開始されます。
image.png
30秒程で生成が完了します。Runボタンをクリックごとに違った形状で[small house]をベースとした3Dモデルが生成されます。プロンプトの単語数が長く複雑になると、その分生成に時間が掛かるようです。
image.png
赤枠内のダウンロードボタンをクリックするとglb形式でダウンロードされます。
image.png
10分も掛からず6~7個のモデルを生成することができました。

image to 3D

image.png
※イラストはmidjourneyで生成したものです。
こちらは画像からimage to 3Dでモデルを生成したものです。ちょっと…現状では使える感じではないですね。
続いて、このモデルデータをblenderへインポートし、形状を整え、テクスチャを付けていきたいと思います。

Blenderでシーンを整える

まずは、Blenderを起動し、ダウンロードしたデータをインポートします。
image.png
image.png
インポートしたデータを見てるとかなりのポリゴン数です。
image.png
リメッシュモディファイアーを選択し、ポリゴン数の削減と形状をなるべくシンプルなものになるよう調整します。
positionを調整し、下辺が原点へ来るように移動しておきましょう。
image.png
ダウンロードした複数のデータを並べてシーンを構成します。

Dream TextureをBlenderにインストールする

Dream TextureのGithubページにアクセスし、ページ下部にある[dream_textures-windows-cuda.7z
]をダウンロードします。
https://github.com/carson-katri/dream-textures/releases
image.png
image.png

7zipで解凍すると[dream_textures-windows-cuda.zip]が表示されますので、これをblenderのアドオンとして使用します。
01.png
編集→リファレンス→アドオン→インストール→解凍したzip[dream_textures-windows-cuda.zip]の順でアドオンをインストールします。
image.png
その後、検索欄で[Dream texture]と入力し、アドオンを有効化します。
Download Stable Diffusion v2.1をクリックすると、Stable Diffusionの学習モデルをユーザーフォルダーにダウンロードし始めます。
image.png
[Find Models]検索欄に「depth」と入力し、[Enter]キーを押すと、
「stabilityai/stable-diffusion-2-depth」モデルがリストに出てきますので、囲み内の[↓]ボタンをクリックするとダウンロードを開始します。
image.png
ビューポート右側に新規で[Dream]というタブが追加されています。
image.png
modelを[stabilityai/stable-diffusion-2-depth]に変更します。
image.png
Blenderのインターフェイスが日本語の場合、生成時にエラーが発生するのでプリファレンスから言語を英語に変更しておいてください。

Dream Textureでテクスチャーを生成する

テクスチャーを生成するための設定を行っていきます。
image.png

Dream Texture Projection
Pipline = [Stable deffusion]
Model = [stabilityai/stable-diffusion-2-depth]

Prompt
subject = [house]
Subject Type = [environment]
Genre = [Cinematic]
今回は、上記の設定で生成します。
テクスチャを生成できるのは、ビューポート上で見えている範囲と距離のみです。
対象のモデルを編集モードにし、全選択すると[Project Dream Texture]ボタンがアクティブになりますので、クリックしてください。生成が開始されます。
image.png
生成が開始されると、UV編集画面で確認すると上記のような画面になります。
image.png
image.png
生成が完了しました。モデリングモードでLightingをFlat、ColorをTextureに変更して確認してみましょう。
気に入るテクスチャになるまで、何回でも生成してみましょう。
image.png
色々なテイストのテクスチャーが生成できました。ただし、あくまでもビューポート上から視認できる範囲のみなので、見えていない部分は正確にレンダリングされません。

PlayCanvasへインポートする

モデルを全て選択し、glbでエクスポートします。
image.png
PlayCanvasのアカウントが無い方は、こちらからアカウント作成をお願いします。
https://playcanvas.jp/
image.png
エクスポートしたglbデータをASSETSへdrag&dropするか、[+]ボタンからUploadをクリックし、該当ファイルをインポートしてください。
image.png
赤枠のTemplateをビューポートへdrag&dropし、完成です。
完成シーンはこちらです。
https://playcanv.as/p/xpbNuPr9/

いかがでしたか?自分でモデリングを行わずに3Dモデルとテクスチャーを短時間で生成し、シーンを構成することが出来るようになりました。まだまだ精度は低いですが、生成AIは日々進化し続けています。今後のアップデートでもっと精度の高い生成3Dモデルを作成できるようになると思います。今後も楽しみに情報をキャッチアップしてきますので、宜しくお願い致します。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0