はじめに
以前から MLX LM、MLX-VLM を使ったローカルLLM をよく試していたのですが、最近 Ollama も試し始めました。
そんな中、Node-RED で Ollama を扱う時に使うと便利な、以下の「node-red-contrib-ollama」を見かけたので、軽く試してみました。
●node-red-contrib-ollama (node) - Node-RED
https://flows.nodered.org/node/node-red-contrib-ollama
試す環境・モデル
今回の内容を試す環境は以下の記事に書いた時のものと同じで、具体的にはこの後に列挙した内容です。
-
M4 の Mac mini で ローカルLLM: Ollama で Gemma 3 を軽く試す(テキスト入力、画像も入力するマルチモーダル) - Qiita
-
Mac mini で ローカルLLM: Ollama で「REST API」とライブラリ「ollama-js」を試す(モデルは Gemma 3) - Qiita
-
環境
- 機器
- M4 Mac mini
- Ollama で使ったモデル
- Gemma 3: gemma3:12b-it-q8_0
- 機器
実際に試してみる
それでは実際に試していきます。
利用可能なノード
まずは「node-red-contrib-ollama」で利用可能なノードの情報を見てみます。
ノードの種類はけっこう多いです。
今回はテキストでのちょっとしたやりとりを試してみるだけなので、chat か generate のどちらかを使う感じになりそうです。
ノードを追加する
それでは、Node-RED を起動してノードを追加します。
以下は、起動済みの Node-RED でメニューを開いたところです。「パレットの管理」を選びます。
「ノードの追加」でキーワードを入れてノードを検索します。以下は ollama というキーワードを入れた状態です。
「node-red-contrib-ollama」が出てきたので、それを選んで追加しました。
ノードを追加した後の状態
以下のように、ノードを追加できました。
この後は、「ollama-generate」を使ってお試しを進めていきます。
フローを作る
ノードを追加できたのでフローを作ります。以下のようなシンプルな構成にしました。
ノードの設定
「ollama-generate」ノードの設定を追加します。
以下のように、Format・Model・Prompt の部分を設定しました。Model で入力している Gemma 3 のモデルは、Ollama自体のお試しで動作確認ができているものです(その際、モデルもダウンロード済み)。
さらに、以下の Server の設定を追加します。
設定を開いたらデフォルトで以下が入力されています。このままの内容で追加します。
Server の設定追加後は、「node-red-contrib-ollama」ノードの設定は以下のようになりました。
あとは、「node-red-contrib-ollama」ノードの前につなげている「Inject」ノードの設定を少し編集します。 msg.payload
にテキストを入力できるように設定し、テキストとして Ollama にわたすプロンプトを入れています。
デプロイと処理の実行
あとはデプロイをして、処理を実行します。処理を実行した結果は以下のとおりです。
無事、デバッグ出力に Ollama からのレスポンスが返ってきているのが確認できました。