3
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

管理者権限不要!UbuntuでのOllamaローカルインストール手順

Last updated at Posted at 2024-10-19

こんにちは。今回は、管理者権限がなくてもOllamaを使用する方法をご紹介します。特に、会社や学校のPCで制限がある方、またはSSH経由でリモートサーバーにアクセスしている方に役立つ内容となっています。

はじめに

Ollamaとは、ローカル環境で大規模言語モデル(LLM)を簡単に動作させることができるツールです。「sudo権限がないためインストールできない」という課題を抱えている方も多いのではないでしょうか。本記事では、そのような制約を克服する方法をステップバイステップでご説明します。

前提条件

  • Ubuntu環境(ターミナルアクセス可能)
  • インターネット接続
  • 基本的なコマンドライン操作の知識

手順1: Ollamaのダウンロード

まずは、Ollamaのバイナリファイルをダウンロードします。ターミナルを開き、以下のコマンドを実行してください。

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama.tgz

このコマンドにより、現在のディレクトリにOllamaのアーカイブファイルがダウンロードされます。

手順2: ファイルの展開

ダウンロードしたアーカイブファイルを展開します。

tar -xzf ollama.tgz

手順3: Ollamaファイルの確認と実行権限の付与

展開されたOllamaファイルを確認し、実行権限を付与します。

ls -l ./bin/ollama
chmod +x ./bin/ollama

手順4: Ollamaの実行

準備が整いましたので、Ollamaを起動しましょう。

./bin/ollama serve

別のターミナルウィンドウを開き、Ollamaが正常に動作しているか確認します。

./bin/ollama --version

バージョン情報が表示されれば、正常に動作しています。

./bin/ollama

ターミナルにollamaのみを実行すると、利用可能なコマンド一覧が表示されます。

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

手順5: モデルのダウンロードと実行

それでは、実際にLLMを動かしてみましょう。ここでは例として、Llama 2モデルを使用します。

./bin/ollama run llama2

初回実行時はモデルのダウンロードが開始されます。完了後、プロンプトが表示されますので、お好きな質問を入力してみてください。

便利な使用方法:エイリアスの設定

./bin/の入力を省略したい場合は、.bashrcファイルにエイリアスを追加する方法が便利です。

echo "alias ollama='$HOME/bin/ollama'" >> ~/.bashrc
source ~/.bashrc

これにより、単にollamaと入力するだけでコマンドを実行できるようになります。

SSH経由での使用

リモートサーバーでOllamaを使用する場合、以下の手順で接続します。

  1. SSHでサーバーに接続:

    ssh ユーザー名@サーバーアドレス
    
  2. 接続後、上記の手順1から5を実行します

  3. Ollamaをバックグラウンドで起動する場合:

    nohup ./bin/ollama serve &
    
  4. 別のSSHセッションを開いて、Ollamaと対話することができます

まとめ

以上で、管理者権限なしでOllamaを使用する方法をご紹介いたしました。この方法により、様々な環境でローカルLLMの力を体験することができます。

次のステップとして、カスタムモデルの作成や、PythonからOllamaを利用する方法など、より高度な使い方にチャレンジしてみるのはいかがでしょうか。Ollamaの可能性は無限大です。

皆様のOllama活用が、より一層充実したものになりますことを願っております。

3
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?