n8nを使って助手を作成してみた【完全無料・完全ローカル構成】
はじめに
n8nとOllamaを使って、完全無料・完全ローカル環境で動作するAI助手を構築してみました。本記事では、その構成、構築手順、n8nのフロー詳細、使用モデル(LLM)について詳しく紹介します。
こんな方におすすめ:
- プライバシー重視でクラウド依存を避けたい
- ローカルLLMとn8nを使ったAIエージェント構築に興味がある
- GoogleカレンダーやNotionと連携した自動化を試したい
システム実装例
使用技術と環境
| 項目 | 内容 |
|---|---|
| オーケストレーション | n8n(ホスト版 / Docker) |
| LLM実行環境 | Ollama(Docker) |
| 使用モデル |
qwen2.5:7b(ローカルLLM) |
| メッセージインターフェース | LINE Messaging API |
| 予定管理 | Google カレンダー |
| タスク管理 | Notion Database |
| 実行環境 | Windows 11 + WSL2(Ubuntu 22.04) |
使用リポジトリ
構築には以下の公式スターターキットを使用しました:
このスターターキットには、n8nとOllamaを連携するためのDocker ComposeファイルやLLMとの接続サンプル構成が含まれており、すぐにローカルでAIエージェントを動かせます。
使用モデル:qwen2.5:7b(Ollama)
今回使用したLLMは Alibaba製の「Qwen2.5:7b」 を、ローカルLLM実行環境Ollamaで動かしました。
特徴
- 日本語対応が強力で、日常会話や意図理解に向いている
- Ollama経由で簡単に実行可能
- n8nのAI Agentノードから直接利用可能
起動方法(Docker)
docker run -d --name ollama \
--gpus all \
-p 11434:11434 \
ollama/ollama
- n8nの .env や ollama_host 設定で http://ollama:11434 を指定します。
外部アクセス対応:ngrokでドメインを公開
LINE Messaging APIのWebhookは外部からアクセス可能なエンドポイントが必要です。
今回は ngrok を使って、ローカル環境のn8nを一時的にインターネット公開しました。
ngrokコマンド例
ngrok http 5678
実際作成したワークフロー
所感
- LINEでやり取りできるため日常的に使える
- AI Agentによる4割くらい期待通りの挙動をしない
- AI Agentへ渡すデータ、Systemプロンプト等で精度を上げられる
- この先、日常的にもっと使用したい機能を拡張していく予定



