0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

ollamaを使用して簡単にローカルLLM

0
Posted at

Ollama(オラマ)を使うと、驚くほど簡単にローカル環境でLLM(大規模言語モデル)を動かすことができます。
以下の手順で進めれば、数分でチャットを開始できます。

  1. Ollamaのインストール
    まずは公式サイトからインストーラーをダウンロードして実行します。
  • Ollama公式サイト にアクセス。
  • Download ボタンをクリックし、OS(macOS, Windows, Linux)に合わせたインストーラーをダウンロード。
  • インストーラーを実行してインストールを完了させます。
  1. モデルのダウンロードと起動
    インストールが終わったら、コマンドプロンプト(Windows)やターミナル(Mac/Linux)を開いて、以下のコマンドを入力するだけです。

例:Llama 3を動かす場合
ollama run llama3

  • 何が起きるか: モデルのダウンロードが始まり、完了するとそのままターミナル上で対話(チャット)が始まります。
  • 日本語に強いモデルを使いたい場合: ollama run gemma2 や ollama run aya(GoogleやCohereのモデル)もおすすめです。
  1. 基本的な操作コマンド
    ターミナルで対話中に使える便利なコマンドです。
  • /bye: チャットを終了して終了します。
  • /list: インストール済みのモデル一覧を表示します。
  • ollama pull [モデル名]: 実行せずにダウンロードだけ事前に行います。
  • ollama rm [モデル名]: 不要になったモデルを削除します。
  1. 自分専用の「カスタムモデル」を作る
    特定の指示(システムプロンプト)を与えた自分専用のモデルを作成することも可能です。
  • Modelfile という名前のファイルを作成し、以下のように記述します。
    FROM llama3
    PARAMETER temperature 0.7
    SYSTEM "あなたは優秀なエンジニアです。回答は常に簡潔に、日本語で行ってください。"

  • ターミナルで以下のコマンドを実行して作成します。
    ollama create my-ai -f Modelfile

  • 作成したモデルを起動します。
    ollama run my-ai

さらに便利に使うには
ターミナルでの操作だけでなく、ブラウザでChatGPTのように使いたい場合は、「Open WebUI」 などのツールを組み合わせるのが一般的です。

###プロキシ
システム環境変数にhttp_proxyとhttps_proxyを追加してパスを通してみてください。

0
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?