はじめに
Ollamaをインストールする手順になります。インストール方法には、自動でインストールする方法と、手動でインストールする方法とがあります。
自動でインストールするとすべての環境設定を自動でやってくれます。Ollamaを動かすためのデーモン(Ollama.service)も一緒にインストールされます。
手動でインストールすると、ollamaユーザー、ollamaグループを自分で新規登録したり、Ollama.serviceを自作したりと何かとやることが大変です。
手動の方が勉強になりますが、トラブルを最小限にしたい場合は、自動でインストールした方が無難ではあります。下記にあるスクリプトがスラスラと読めない場合は自動で行った方が無難でしょう。
https://ollama.com/install.sh
環境
Ubuntu20.4 (Windows10 + Vagrant)
公式サイト
手順
インストール用のスクリプトを公式サイトからダウンロードして、Bシェルに渡して実行しています。インストールには結構時間がかかります。
$curl -fsSL https://ollama.com/install.sh | sh
インストールされたことを確認します。
$ollama -v
$ollama --version
サービスが起動されていることを確認します。
$systemctl status ollama.service
GPUでなくてもCPUで動作するDeepSeekの一番軽いモデルを動かしてみます。軽いといっても、それでも容量は1.1GBあります。くれぐれも、パラメータ数が多いモデル(容量が多いモデル)をCPUで動かさないようにご注意ください。
初回はモデルのインストールから始まります。
$ollama run deepseek-r1:1.5b
実行してみたところ日本語に質問に対し中国で答えてきました。日本語に翻訳してくださいと言ったところ、次は英語で答えてくれました。折角ではありますが、日本語には対応していないようです。
国産のLLMもOllmadeで使えるようになっています。国産のLLMは探せばとわりとたくさんあるようです。たくさんありすぎてどれがいいのかは分かりませんが、多くの日本語を学習して、更にファインチューニングもしているようなので、日本語には強いはずです。
インストールの仕方は公式サイトに載っています。
その他のコマンド(参考)
インストール済のLLMの一覧を表示します。
$ollama list
LLMを削除します。
$ollama rm llama3
Ollamaをアンインストールをしたい場合はこちらに手順があります。