はじめに
OllamaでGemma 3nモデルが利用可能になったので、高火力 DOKの「ノートブック」機能を使って試してみるメモです。
高火力 DOKは、さくらインターネットが提供するコンテナ型GPUサービスです:
https://www.sakura.ad.jp/koukaryoku-dok/
前提
- 高火力 DOKのアカウントを持っている
高火力DOK
「ノートブック」の起動
ノートブックの利用方法を参考にノートブック(JupyterLab)を起動し外部から接続できるようにします。
高火力 DOKのダッシュボードにアクセスし、
サイドバーから「ノートブック」を選択したのち「起動」を選択します。
「起動」を選択し、JupyterLabが起動するまで待ちます。
「開く」を選択するとJupyterLabにアクセスできます。
※起動するまで3分程度かかる場合があるようです。
Jupyter NotebookにアクセスできたらNotebookのPython 3(ipykernel)
を選択します
Ollamaのインストールと実行
以下コードを順番に実行します。
- Ollamaのインストール
こちらを参考にNon-rootでのインストールを行います。
https://github.com/ollama/ollama/issues/7421
!curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
!mkdir -p ~/.local
!tar -C ~/.local -xzf ollama-linux-amd64.tgz
- Ollamaの起動
バックグラウンドでの起動はこちらを参考に行います。
https://github.com/TheLastBen/fast-stable-diffusion/discussions/352
import os
get_ipython().system = os.system
!nohup bash -c 'LD_LIBRARY_PATH=$HOME/.local/lib/ollama:$LD_LIBRARY_PATH $HOME/.local/bin/ollama serve' > /dev/null 2>&1 &
- ollamaライブラリのインストール
!pip install ollama
- Gemma 3nを試す
※初回実行時はモデルのpullを行うため時間がかかります(5〜10分程度)。気長に待ちましょう
import ollama
ollama.pull('gemma3n:e4b')
response = ollama.generate(model='gemma3n:e4b', prompt='PythonでHello world書いてください')
print(response['response'])
Yatta!!!
終わるとき
停止を忘れると従量課金されていくので忘れずに停止しましょう
高火力 DOKのダッシュボードにアクセスし、
サイドバーから「ノートブック」を選択したのち、「終了」を選択します。
ポップアップにて「終了」を選択します。
まとめ
この記事では、高火力 DOKの「ノートブック」機能でGemma 3nを試す手順を説明しました。
ここまで読んでいただきありがとうございました
参考文献
高火力 DOK ドキュメント
Windows と M4 Mac mini でローカルLLM: Gemma 3n を Ollama で試す(Mac はエラーが出たのでその対処=「再起動」の話も)