著者初投稿記事です。
下手くそだとは思いますが、温かく見守っていただければと思います。
Ollamaを動かす時の基本操作のメモです。
誰かの役に立てば幸いです。
Ollamaとは?
- Ollamaとは?ローカルでLLMを動かすためのソフトウェア
- 家でLLMを遊びたい人には便利
Ollamaを動かしてみる
実行環境
- Docker(devcontainer)
→Linux(Ubuntu)環境です
インストール
Ollama公式サイトを参考にインストール。
以下コマンドで、ダウンロード+インストールができます。
curl -fsSL https://ollama.com/install.sh | sh
Ollamaの起動
ダウンロードが終わったら、以下のコマンドでOllamaのサーバーを起動します。
Ollamaコマンドを実行するためには、Ollamaのサーバーが起動しているしている必要があります。
ollama serve
動かしたいモデルをダウンロード
以下のコマンドで、モデルのダウンロードや実行ができます。
初回はモデルのダウンロードがあるためかなり時間がかかります。(dockerで行うので、ボリュームをマウントすることを忘れずに。ボリュームは/root/.ollama
をマウントしてください)
今回はllama3.3
を動かします
ollama run llama3.3
# ollama run 実行したいモデル
うまく実行できると、ターミナルで実行LLMを試すことができます。