0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Ollama Python Library で Custom Client でストリーミング出力を使う

Posted at

背景

家のゲーミング PC で Ollama を動かし、別の Mac からアクセスして使う構成です。公式ライブラリのページでも、Custom Client + Streaming の例が無く、少し探しても見つからなかったので記事として残すことにしました。

コード

公式ページの Streaming responses の例と Custom client の例の合わせ技とすることで動きます。

from ollama import Client
client = Client(
  host='http://接続先の IP アドレス:11434',
  headers={'x-some-header': 'some-value'}
)

stream = client.chat(
  model='使いたいモデル',
  messages=[
    {
      'role': 'user',
      'content': 'AIによって私たちの暮らしはどのように変わりますか?',
    },
  ],
  stream=True
)

for chunk in stream:
  print(chunk['message']['content'], end='', flush=True)

上記はあくまで動作確認用のサンプルです。実運用で使うには適切なエラー処理などを実装して使用してください。

家のゲーミング PC は 2 年ほど前に組み立てたので、GPU も GeForce RTX 3060 と少し世代が前ではあるものの、12GB VRAM のおかげで話題のあのモデルの 14B とかも悪くない速度で動きました。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?