0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

ローカルLLM利用方法 Ollama

0
Posted at

ローカルLLM利用方法

Ollama

  • Ollamaは、LLMをローカル環境で手軽に動作させられるソフトウェア

Ollamaダウンロード

  • Ollamaをインストールする
  • 起動するとタスクトレイに常駐します

Ollamaで利用可能なLLM

LLMダウンロード

  • コマンドプロンプトで以下のコマンドを実行する
  • 例 Gemma 3 1bの場合
ollama pull gemma3:1b 

LLM起動

  • コマンドプロンプトで以下のコマンドを実行する
  • 例 Gemma 3 1bの場合
ollama run gemma3:1b
  • プロンプト(>>>)が表示されたら、AIへ指示を入力する

ローカルLLMをPythonコードから利用する方法

sample.py
# pip install openai
from openai import OpenAI

client = OpenAI(
    # Ollamaを起動するとサーバーとしても動作している。 ポート番号 11434
    base_url="http://localhost:11434/v1",
    # api_keyの値は、ダミーで良い
    api_key="dummy",
)

response = client.chat.completions.create(
    model="gemma3:1b",
    messages=[
        {"role": "system", "content": "あなたはAIアシスタントです"},
        {
            "role": "user",
            "content": "PythonでHello, World!を出力するコードを教えてください",
        },
    ],
)

# レスポンスの内容を表示
print(response.choices[0].message.content)

参考url
https://ollama.com/blog/openai-compatibility

ローカルLLMをブラウザで利用する方法

Ollamaはコマンドラインのソフトウェアのため使い勝手が悪いです。
そこでブラウザで利用できるようにします。

Open WebUIをインストールする

pip install open-webui
pip install hf_xet

Open WebUIを起動する

open-webui serve

ブラウザで以下urlにアクセスする
http://localhost:8080/

初めてアクセスすると、アカウント登録画面が表示される

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?