LoginSignup
1
1

pythonコード2行でカスタムモデルのOllamaサーバーを起動できるoyamaを作ってみた

Posted at

pythonコード2行でカスタムモデルのOllamaサーバーを起動できるoyamaを作ってみた

 oyama

GoogleColabでOllamaを使うときの面倒な設定を一発で解決!pythonコード2行でカスタムモデルのOllamaサーバーを起動できる最強ラッパーoyamaを作ったぞ!

ollamaのためのラッパーで、ローカルモデルを一発起動でき、URLを指定してモデルをロードできます。
(現状Linuxのみサポートしていますが、WindowsやMacでもollamaコマンドが使える状態であれば、動くはずです)

はじめに

Ollamaは、ローカルにインストールしたカスタムモデルを使ってAIアシスタントを実行できる素晴らしいツールです。しかし、モデルをロードしてサーバーを起動するのが少し面倒でした。

  • モデルをダウンロードして解凍
  • 特定のフォルダに置く
  • 起動コマンドを実行

このような手順を経る必要がありました。カスタムモデルを試したくてもこの手順が面倒で二の足を踏んでしまう人も多いはずです。

oyamaでできること

  • カスタムモデルを指定してOllamaサーバーを一発起動
  • モデルをURLから直接ロード可能
  • と、めっちゃ便利!

GoogleColabサンプル

手軽に試したい方にGoogleColabのサンプルノートブックも用意しました

インストールと使い方

インストール

pip install git+https://github.com/HawkClaws/oyama.git ollama

使い方

from oyama import oyama
import ollama

# Hugging Faceなどのguffのモデルリンクの指定
model_name = oyama.run("https://huggingface.co/mmnga/cyberagent-calm2-7b-chat-gguf/resolve/main/cyberagent-calm2-7b-chat-q8_0.gguf?download=true")

response = ollama.chat(model=model_name, messages=[
  {
    'role': 'user',
    'content': '日本でお薦めの観光地を5つあげてください。',
  },
])
print(response['message']['content'])

モデルリンクの取得方法

get_model_link.jpg

おわりに

oyamaを使えばOllamaがぜんぜん手軽に使えるようになりました!
カスタムモデルの乱立に困ることはないでしょう。
みなさんもOllamaとoyamaでAIモデルの汎用性を楽しんでみてください!

1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1