2
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

CVPR2025ベストペーパー!Metaの3D再構築AI「VGGT」をサクッと試す環境構築ガイド (Windows + RTX 4080)

Last updated at Posted at 2025-09-04

はじめに

こんにちは、藤野 拓也です。
自他ともに認めるめんどくさがり屋で、「いかに楽をして生きていくか」を常に考えています。

そんな私が唯一、毎日多大なコスト(時間と労力)を支払っているのが通勤です。
我が家から見える景色は絶景でして、とても気に入っているのですが… 駅までが遠い…。

そんな時はドラえも~ん!どこでもドア出して!
しかしドラえもんが完成する日はまだ遠く生きていられる自信がない、何か解決策はないか…。
なに?万博?空飛ぶ自動車だと…?

「!?究極の時短(手抜き)は、ドローンで通勤することではないか?※パイロット免許取れそうにないから自動運転でお願い」

そんなめんどくさがり屋ならではの発想から、私の人生の目標は「ドローン通勤の実現」になりました。

めんどくさがり屋だからこそ、技術の力を借りてショートカットしたい。その一心で、面倒な最新AI技術のキャッチアップだけは欠かさず行っています。

そして2025年の春、ついにその夢想を現実にするための"最短経路"となり得る技術に出会いました。
それが、Meta社が発表し、コンピュータビジョン分野のトップカンファレンスCVPR 2025ベストペーパーアワードを受賞した「VGGT」です。

この技術は、カメラ映像から瞬時に周囲の3D環境を把握できるもので、まさに「ドローンが自分で考えて飛ぶための"眼"」。これさえあれば、面倒な操縦から解放される日も近いかもしれません。

この記事は、そんな私のようなめんどくさがり屋な方でも、コピペとクリックだけでサクッと未来の技術を体験できることを目指した、環境構築ガイドです。

記事の内容

この記事は、

  • 「なんかスゴいAIが出たらしい」と聞いて、とりあえず触ってみたい方
  • 難しいことは抜きにして、とにかく結果が見たい方
  • 環境構築でハマって、時間を無駄にしたくない方

に向けて、Windows 11 と NVIDIA GeForce RTX 4080という環境で、VGGTのデモを動かすまでの最短手順を解説するものです。

この記事を最後まで読めば、面倒な理屈は分からなくても、お手持ちの動画や写真からAIで3Dモデルを生成する体験ができます。
一緒に賢く楽して、未来の技術を先取りしましょう!

実行環境

この記事の手順は、以下の環境で動作確認をしています。「面倒なエラーを避けたい!」という方は、なるべく近い環境を準備することをおすすめします。

カテゴリ スペック
OS Windows 11
GPU NVIDIA GeForce RTX 4080
CPU Intel(R) Core(TM) i5-10400 CPU @ 2.90GHz
メモリ 32.0 GB
NVIDIA Driver 576.57
Python 3.10.11

環境構築の手順

ここが一番面倒なパートですが、この記事の通りにコマンドをコピペしていけば大丈夫です。一つずつ落ち着いて進めていきましょう。

① Python仮想環境の準備

まず、VGGT専用の部屋(フォルダ)と、その部屋で使う道具(Pythonライブラリ)を隔離しておくための「仮想環境」を準備します。
これをやっておくと、PC本体のPython環境を汚さずに済むので、後で「あれ、他のプログラムが動かなくなった…」という面倒なトラブルを避けられます。

コマンドプロンプトやPowerShellを開いて、以下のコマンドを一行ずつ実行してください。

# 作業用のフォルダを作成して、そこに移動します
mkdir vggt-project
cd vggt-project

# 「venv」という名前の仮想環境を作成します
python -m venv venv

# 作成した仮想環境を有効にします(これを実行すると、コマンドの行頭に (venv) と表示されます)
.\venv\Scripts\activate

② VGGTソースコードのダウンロードとPyTorchのインストール

いよいよVGGTの本体と、それを動かすための必須ツールを準備します。特にPyTorchのインストールは、RTX 4080をフル活用するために非常に重要です。ここを間違えるとGPUが使われず、「全然速くないじゃん!」とモチベーションが下がってしまうので注意しましょう。

まずはGitHubからVGGTのソースコードをダウンロードします。

# VGGTのソースコードをダウンロード
git clone https://github.com/facebookresearch/vggt.git

# ダウンロードしたフォルダに移動します
cd vggt

次に、RTX 4080に対応した最新のPyTorchをインストールします。

  1. まず、PyTorch公式サイトのインストールページにアクセスします。

  2. 以下の画像のように選択肢を選んでいきます。
    pytorch.png

    • PyTorch Build: Stable (安定版)
    • Your OS: Windows
    • Package: Pip
    • Language: Python
    • Compute Platform: CUDA12.6
  3. 表示されたインストールコマンドをコピーし、コマンドプロンプトに貼り付けて実行します。

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126

インストールが完了したら、PythonがGPUを認識しているか確認しましょう。
以下のコマンドをPythonのインタラクティブシェル(pythonと入力してEnter)で実行し、Trueが返ってくれば成功です。

# コマンドプロンプトで「python」と入力してPythonシェルに入ります
import torch
print(torch.cuda.is_available())
# True が返ってくればOK!
exit() # Pythonシェルを終了します

※ cv2 / einops のインストールがまだの人はやっておきましょう。怒られます:scream_cat:

③ 残りのライブラリを一括インストール

PyTorchというラスボスを倒したので、あとは楽勝です。
以下のコマンド一発で、デモ画面の表示などに必要なライブラリがすべて自動でインストールされます。

# requirements.txtファイルを使って必要なライブラリを一括インストール
pip install -r requirements.txt

デモの実行と使い方

長かった環境構築、お疲れ様でした!ここからは一番楽しい結果を見ていくパートです。
以下のコマンドを実行して、ブラウザで操作できるデモ画面を起動しましょう。

python demo_gradio.py

初回起動時は、VGGTのAIモデル本体(約4.7GB)のダウンロードが自動で始まるため、少し時間がかかります。気長に待ちましょう。

最終的に、ターミナルに以下のようなURLが表示されたら起動完了の合図です。

Running on local URL: http://127.0.0.1:7860
このhttp://127.0.0.1:7860というURLをコピーして、お使いのWebブラウザのアドレスバーに貼り付けて開いてください。

① デモ画面の使い方と画像のアップロード
ブラウザを開くと、以下のようなシンプルな画面が表示されます。
デモンストレーション画面.png

使い方は超簡単です。

左側の "Upload video"や"Upload Images" と書かれたエリアに、3Dモデルにしたい物体の動画や写真をドラッグ&ドロップします。

写真は、同じ物体を様々な角度から撮影したものを複数枚用意するのが成功のコツです。スマホでぐるっと一周撮るだけでOKです。

"Run" ボタンを押します。

これだけです。あとはAIが頑張って計算してくれるのを待つだけ。まさにめんどくさがり屋のためのツールですね。

② 3Dモデルの生成結果!
しばらく待つと、右側のエリアに3Dモデルが生成されます!
マウスのドラッグでぐりぐり動かしたり、ホイールで拡大・縮小したりできます。

今回は、試しに時計とマウスの動画を撮影して使ってみました。

その結果がこちらです!

時計
Animation.gif

マウス
Animation2.gif

1分ほどでできました😃
計算力が高いGPUを使ったり、動画(データセット)が良いともっと早くなる気がします

おわりに

今回は、Metaの最新3D再構築AI「VGGT」をローカルPCで動かすまでの一連の手順を、備忘録としてまとめてみました。
「めんどくさがり屋」な私でも、いくつかエラーはありましたが、なんとか未来の技術を体験することができました。特に、ワンクリックで3Dモデルが数分で作成されたのには驚きました。

この記事が、同じようにVGGTを試してみたいと考えている方の、少しでも時間短縮(手抜き)の助けになれば幸いです。

これからも夢のドローン通勤を目指して、最新技術をキャッチアップしていきますので、また何か発見しましたらご紹介させていただきたいと思います。

最後まで読んでいただき、ありがとうございました。

【補足】めんどくさがり屋のための全コマンドチートシート

「細かい説明はいいから、とにかく全部のコマンドをコピペしたい!」という、私と同じめんどくさがり屋なあなたのために、今回実行した全コマンドを順番通りにまとめました。

コマンドプロンプトを開いて、これを上から順に実行すれば、あなたのPCでも同じ環境が完成するはずです。

# === 1. プロジェクトのセットアップ ===

# 作業フォルダを作成し、中に移動する
mkdir vggt-project
cd vggt-project

# Pythonの仮想環境を作成する
python -m venv venv

# 仮想環境を有効にする(これ以降のコマンドはすべて行頭に (venv) が表示された状態で実行)
.\venv\Scripts\activate

# VGGTのソースコードをダウンロードし、中に移動する
git clone https://github.com/facebookresearch/vggt.git
cd vggt

# === 2. 必須ライブラリのインストール(エラー回避済みの完全版) ===

# PyTorchの依存関係エラーを予防する
pip install typing-extensions

# PyTorch本体をインストールする(CUDA 12.6版)
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126

# プロジェクトの基本ライブラリをインストール
pip install -r requirements.txt

# デモ用の追加ライブラリをインストール
pip install -r requirements_demo.txt

# 不足していたライブラリを追加でインストール
pip install opencv-python
pip install einops

# === 3. デモの実行 ===

# すべてのインストールが完了したら、デモを起動する
python demo_gradio.py
2
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?