0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

VMware Workstation上に、Ubuntu/Digy with OllamaでAI開発環境つくってみた(その3)

Last updated at Posted at 2025-08-17

目的

生成AIアプリケーションのノーコード開発環境を作ってみる
個人PC(Windows11)に、たまたま、VMware Workstation Proが入っていたので、そこにつくろうと思います。

その2の続きです。
https://qiita.com/kimtetsu/items/77414947dd38510f284d

流れ

Ubuntuサーバーのインストール (その1)
Docker Composeのインストール (その2)
Difyのインストール  < ここから
Ollamaのインストール
LLMのダウンロード、確認 < ここまで
Difyの初期設定、動作確認 (その4)

その4はこちら
https://qiita.com/kimtetsu/items/cd11f29bfe941fb25425

Dify 取得

Dify を取得し、Ollama も同じ Compose で起動してきます。

$ git clone https://github.com/langgenius/dify.git

こんな感じです。

Cloning into 'dify'...
remote: Enumerating objects: 198801, done.
remote: Counting objects: 100% (100/100), done.
remote: Compressing objects: 100% (38/38), done.
remote: Total 198801 (delta 78), reused 62 (delta 62), pack-reused 198701 (from 3)
Receiving objects: 100% (198801/198801), 107.54 MiB | 15.37 MiB/s, done.
Resolving deltas: 100% (146132/146132), done.}$

環境ファイルの作成

(デフォルトでOK)

$ cd dify/docker
$ cp .env.example .env

Ollamaサービスを同梱するymlを作成:

OllamaもDockerで一緒に起動するため。
docker-compose.override.yml を作成

$ cat > docker-compose.override.yml << 'EOF'
services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    restart: unless-stopped
    ports:
      - "11434:11434"   # ホストからも使いたいので公開
    volumes:
      - ollama:/root/.ollama
volumes:
  ollama:
EOF

起動

$ docker compose pull
$ docker compose up -d

確認もしておきましょう

$ docker compose ps 

nginx/web/api/ollama等が "Up" ならOK

LLMモデルを コンテナ内のOllamaにpull

例:軽量モデル

$ docker exec -it ollama ollama pull phi3:mini

こんな感じ、phi3のminiで、2.2GBくらい
空き容量に注意を

pulling manifest
pulling 633fc5be925f: 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 2.2 GB
pulling fa8235e5b48f: 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 1.1 KB
pulling 542b217f179c: 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏  148 B
pulling 8dde1baf1db0: 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏   78 B
pulling 23291dc44752: 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏  483 B
verifying sha256 digest
writing manifest
success

インストール済みのLLMの確認

$ docker exec -it ollama ollama list

ollama で先ほどダウンロードしてLLMを使ってみよう。

$ docker exec -it ollama ollama run phi3:mini

が出てきたら、Helloなど、プロンプトをいれてみよう。

NAME         ID              SIZE      MODIFIED
phi3:mini    4f2222927938    2.2 GB    2 minutes ago
piperai@ubu3s:~/dify/docker$ docker exec -it ollama ollama run phi3:mini
>>>
Use Ctrl + d or /bye to exit.
>>> Hello
Hello! How can I help you today?
>>> Send a message (/? for help)

/bye で抜けれます。

Difyのアクセス確認

ホストPCのWin11のWebブラウザーから、下記のURLでアクセス

http://IPアドレス/install

管理者アカウントの設定画面が出てきたらOKです。
image.png

全体を通して

※会社から、もしくは会社のVPNが接続されているとエラーになる事があります。

Difyの初期設定と動作確認

その4はこちら

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?