0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

EVO-X2環境構築メモ:ubuntu24.04

Last updated at Posted at 2025-10-04

GMKtec EVO-X2 を LLM サーバとして構築する手順(Ubuntu + ROCm 環境)

GMKtecの EVO-X2 を入手した。本機は LPDDR5X 128GB 搭載かつ APU構成のため、その大容量メモリをVRAMとして活用できる点が特長である。
比較的安価に「VRAM容量特化PC」を手に入れられるということで、自宅LAN内の LLMサーバ用途 として構築を進めた。

⚠️ 注意: 2025年10月現在、ROCm対応の成熟度はまだ低く、GPUを利用した画像や動画の生成速度は「カス」と言っていいレベルであるらしい。将来的にROCmがこなれて性能が改善されれば、画像生成や動画生成にもある程度使えるのではと期待したいところ。

構築手順メモ

1. OS 用 SSD 差し替え

  • 付属の Windows11 インストール済み NVMe SSD は取り外して保管。
  • 空の NVMe SSD を用意して Ubuntu をインストール。
  • 注意点: 公式手順(参考動画)では、接着されたゴム足を剥がした下のネジを外す必要がある。日本人の感覚では正気を疑う方法だが、これが正しい手順である。

2. Ubuntu 24.04 インストール

特に問題なくインストール可能である。

3. AMD ドライバーインストール

  • AMD公式サイト から、 Ubuntu 24.04.3 HWE 用 Driver 25.10.4 をダウンロード
    2025/10/01現在のバージョンはこんな感じ。
    ubuntu24.04.3HWE用のドライバ25.10.4をダウンロードしてインストールした。
    image.png
  • インストール例:
    sudo apt install ./amdgpu-install-VERSION.deb
    

4. ROCm 6.4 インストール

  • 上記ドライバ導入で amdgpu-install コマンドが利用可能になる。

  • ROCm インストール手順:

    sudo amdgpu-install -y --usecase=rocm --no-dkms
    sudo usermod -a -G render,video $LOGNAME
    reboot
    
  • インストール確認コマンド:

    apt show rocm-libs -a
    hicc --version
    
  • 注意: rocminfo で表示される ROCk module versionカーネルモジュールのバージョン であり、ROCm全体のバージョンとは異なるので誤解しないこと。

5. amdgpu_top の導入

  • Umio-Yasuno/amdgpu_top から deb を入手し、apt install
  • 確認ポイントは「Memory Usage → GTT」の総量。
    • 初期状態: 約 64GB

    • 後述の設定で 128GB まで拡張可能。

      ちなみにこの画面ショットは後続手順にてGTTのサイズを128GBまで目一杯広げた状態。
      image.png

6. GTT サイズ最大化

  • 参考: Zenn記事
  • sudo nano /etc/default/grubにて
    GRUBの設定ファイルに以下を追記し、GTT を 128GB に拡張。
    GRUB_CMDLINE_LINUX_DEFAULT="quiet splash amdttm.pages_limit=33554432 amdttm.page_pool_size=33554432"
    
    ファイル編集後、以下のコマンドで適用してOS再起動すると反映されるはず。
    sudo update-grub
    
  • 単位は「4KBページ数」。33554432ページ ≒ 128GB。

7. llama.cpp インストール(Vulkan版)

※記事が消えると困るので手順をコピーしておく

$ git clone  https://github.com/ggml-org/llama.cpp.git
$ sudo apt install libvulkan-dev glslc cmake build-essential libcurlpp-dev
$ cd llama.cpp
$ mkdir build-vulkan
$ cmake -B build-vulkan -DGGML_VULKAN=ON
$ cmake --build build-vulkan --config Release -j

8. llama-swap 導入

  • llama.cpp はモデル切替が煩雑なため、 llama-swap の導入で妥協。

9. Open WebUI インストール

  • open-webui
  • 今回はLLMサーバを(ローカル上ではあるが)外部に用意するので
    「If Ollama is on your computer, use this command:」パターンで導入。
  • 前提として Docker インストールが必要。

試したが不採用となったもの

LM Studio

  • アプリ内部にVulkan / ROCm 版それぞれのllama.cppを内蔵しているが、

    • ROCm版: GPUが検出されず使用不可(統合GPU未対応?)
    • Vulkan版: 動作はするが遅すぎ & GPU利用されていない模様
  • 結果、CPUオンリー動作でtokens/secが全く伸びなかったので不採用。

Ollama (ROCm版)

  • LM Studio同様、GPUを利用できず不採用。
  • 本家はVulkan版の開発予定なし。Fork版は存在するが将来性があるかどうか不明瞭だったので不採用。

modprobe 経由の共有メモリ拡張

  • 参考
  • 設定しても amdgpu_top の GTT 総量が変化せず失敗。
  • GRUB方式なら確実に拡張可能なので、こちらを採用した。

まとめ

  • EVO-X2 の 128GB LPDDR5X を フルにVRAM化 できることを確認。
  • ただし 2025年10月時点では、ROCm経由の LLM 推論速度は実用に耐えない水準である。
  • 今後の ROCm 改善に期待しつつ、暫定的に Vulkan版 llama.cpp + llama-swap + Open WebUI の構成で運用してみることにする。
0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?