はじめに
Obsidianは、その柔軟性と拡張性から、多くの人に愛用されている知識管理ツールです。私も、日々のメモやアイデアの整理、そしてビジネス資料の作成まで、Obsidianを活用しています。
近年、目覚ましい進化を遂げているのが、大規模言語モデル(LLM)です。文章の生成や要約、翻訳など、LLMは様々なタスクで人間を凌駕する能力を発揮し始めています。このLLMの力をObsidianと組み合わせることで、知的生産性をさらに向上させることができるのではないか。そう考え、私はObsidian Copilotを導入しました。
Obsidian Copilotは、Obsidian内でLLMを活用するためのプラグインです。まるで優秀な「副操縦士(Copilot)」のように、ノート作成、アイデア出し、文章校正など、様々な作業をAIがサポートしてくれます。
なぜObsidian Copilotを選んだのか(Smart Composerとの比較)
ObsidianでLLMを利用できるプラグインは、Obsidian Copilotだけではありません。例えば、「Smart Composer」というプラグインも存在します。
現時点では、両者に決定的な差を感じているわけではありません。しかし、私がObsidian Copilotを試用している理由は、主に以下の3点です。
- 出力の質の高さ: いくつかのプロンプトで比較したところ、Obsidian Copilotは、Smart Composerよりも文脈に沿った、具体的な提案をしてくれる傾向がありました。Smart Composerは、ノートの内容を十分に理解していないかのような、的外れな応答を返すことがあり、この点が気になりました。
- 設定の柔軟性: Smart Composerの出力が期待に満たないのは、単に私の設定が不十分である可能性も否定できません。Obsidian Copilotについても、まだ最適な設定を見つけられていないため、現時点では「Obsidian Copilotに確定」とは言えません。
- 将来性への期待: Obsidian Copilotは、Smart Composerに比べて開発が活発であり、新機能の追加や改善が頻繁に行われています。今後の発展次第では、Obsidian CopilotがSmart Composerを大きく上回る可能性を秘めていると感じています。
これらの理由から、私は現時点でObsidian Copilotを試用し、その可能性を探っています。
Smart Composerの設定を見直す余地も残されており、最終的な判断は今後の検証次第です。両プラグインの特性を理解し、よい選択をしたいと考えています。
Obsidian Copilotの概要
Obsidian Copilotは、Obsidian内でAIの力を活用するためのオープンソースプラグインです。主な特徴は以下の通りです。
- 多様なLLMに対応: OpenAI、Anthropic、Google Geminiなど、様々なモデルを利用可能。APIキーを登録するだけで、ChatGPT Plusなどの有料プランは不要です。ローカルLLM (LM Studio, Ollama) にも対応。
- チャットUI: Obsidian内でLLMと対話できるチャットウィンドウを提供。
- コマンド: テキストの簡略化、翻訳、文法修正など、様々な処理をコマンドで実行。
- カスタムプロンプト: 独自のプロンプトを作成・管理、呼び出し可能。
- Vault QA: Obsidian内の全ノートを対象に質問応答が可能。ローカルインデックスを使用し、プライバシーに配慮。
- Copilot Plus (ベータ版): Obsidianに強力なAIエージェント機能を追加 (詳細はobsidiancopilot.com)。
Copilotのチャット機能とVault QAは無料で利用可能です。
導入手順
Obsidian Copilotのインストール
- Obsidianの「コミュニティプラグイン」から「Obsidian Copilot」を検索し、インストールします。
- プラグインを有効化します。
Ollamaとの連携設定
-
Ollamaのインストール: Ollama公式サイト から、お使いのOS (Mac, Linux, Windows) に合わせてOllamaをダウンロードし、インストールします。
-
モデルのダウンロード: ターミナル(またはPowerShell, CMD)で
ollama pull <モデル名>
を実行し、使用したいLLMモデルをダウンロードします。(例:ollama pull mistral
) -
コンテキストウィンドウの設定(重要):
ollama run <モデル名>
を実行後、/set parameter num_ctx <コンテキスト長>
(例:/set parameter num_ctx 32768
)でコンテキスト長を設定し、/save <モデル名>
で保存します。各モデルで個別に設定が必要です。 サーバーログでllama_new_context_with_model: n_ctx
の値を確認してください。 -
サーバーの起動(重要): Obsidianからアクセスできるようにするため、以下のいずれかの方法で
OLLAMA_ORIGINS
環境変数を設定してOllamaサーバーを起動します。-
CLI (Mac, Linux): ターミナルで
OLLAMA_ORIGINS=app://obsidian.md* ollama serve
を実行。(fishシェルの場合はOLLAMA_ORIGINS="app://obsidian.md*" ollama serve
) -
macOS App: ターミナルで
launchctl setenv OLLAMA_ORIGINS "app://obsidian.md*"
を実行後、Ollamaをメニューバーから終了し、再起動。
-
CLI (Mac, Linux): ターミナルで
-
Obsidian Copilotの設定: Obsidian Copilotの設定画面で、「Add Custom Model」を選択し、以下を入力して「add」をクリック。
-
Model Name: Ollamaでプルしたモデル名 (例:
mistral
) -
Provider:
ollama
-
Verify
ボタンを押してsuccessfulとなることを確認し、Add Model
ボタンでモデル追加
-
Model Name: Ollamaでプルしたモデル名 (例:
-
ローカル埋め込み(オプション): RAGでローカル埋め込みモデルを使用する場合、
ollama pull nomic-embed-text
(またはmxbai-embed-large
など)を実行。CopilotのQA設定で、モデル名(例:nomic-embed-text
)、プロバイダollama
を指定。
これで、Obsidian CopilotからOllamaで動作するローカルLLMを利用できるようになります。
サーバの起動が重要です。setenv
してmacOS.appで起動、で普段づかいはOKと思います。ログを見るにはターミナルで OLLAMA_ORIGINS=app://obsidian.md* ollama serve
で起動するのがよいです。
LLMの選択と設定
Obsidian Copilotでは、複数のLLMモデルを使い分けることができます。いまのところ、私は下記のモデルを使っています。
テキスト生成モデル
-
gemini-2.0-flash (クラウド):
- メリット: 高速かつ高品質な文章生成が可能。回数制限などはあるが無料。
- デメリット: インターネット接続が必要。APIキーを取得する必要あり。プライバシーに関する懸念あり。
- 使い所: 高品質な文章を素早く生成したい場合。
-
deepseek-r1:14b-qwen-distill-q4_K_M (ローカル):
- メリット: 比較的軽量で、ローカルで動作。
- デメリット: gemini-2.0-flashに比べると、生成速度や品質が劣る。
- 使い所: プライバシーを重視しつつ、ある程度の品質の文章を生成したい場合。
-
lucas2024/llama-3-elyza-jp-8b:q5_k_m (ローカル):
- メリット: 上記deepseek-r1:14bより軽量。ローカルで動作。
- デメリット: gemini-2.0-flash、deepseek-r1:14bと比べると、生成速度や品質が劣る。
- 使い所: プライバシーとスピードを重視し、文章の品質をあるていど犠牲にしても大丈夫な場合。
エンベッディングモデル
-
yxchia/multilingual-e5-large-instruct:latest:
- メリット: 多言語に対応しており、日本語の文章にも対応可能。
- 使い所: とりあえずこれでしばらく運用。
-
mxbai-embed-large:latest:
- メリット: 高い精度で文章の類似度を計算できる。
- 使い所: しばらくこれで運用して不満はなかったが、multilingual-e5-largeのほうが賢いという話なので実験中。
モデル選択の理由と使い分け
- 普段使い: gemini-2.0-flashで高速・高品質な文章生成。
- オフライン作業: deepseek-r1:14b-qwen-distill-q4_K_Mでプライバシーを確保。
- 速度優先: lucas2024/llama-3-elyza-jp-8b:q5_k_mで質を犠牲にしてスピード優先。
-
RAG利用時:
yxchia/multilingual-e5-large-instruct:latest
で実験中。いまのところスピードも問題ないと感じている。
おすすめ設定
Obsidian Copilotの高度な設定の一つに、「User System Prompt」があります。ここに、AIアシスタントの役割や口調などを指示する文章を入力できます。
設定場所は、Settings
> Copilot
> Advanced
> User System Prompt
です。
例えば、以下のように設定すると、常に日本語で丁寧な応答をしてくれるようになります。
あなたは誠実で優秀な日本人のアシスタントです。特に指示が無い場合は、常に日本語で回答してください。
この設定は、特に日本語でObsidian Copilotを利用する方におすすめです。ぜひ一度お試しください。
Obsidian Copilotの活用例
Obsidian Copilotは、以下のような場面で、私のObsidianライフをサポートしてくれています。
- ノート作成の効率化: タイトルや見出しの提案、本文の自動生成、さらには既存ノートからの関連情報の抽出まで、Obsidian Copilotにお任せすることで、ノートからアウトプットを作成するのが効率的になりました。
- 文章の校正・改善: 誤字脱字や文法ミスのチェックはもちろん、より自然で洗練された表現を提案してくれるので、文章の質が向上したと実感しています。要約機能も超・便利です(後述)。
- 関連ノートの提示: Obsidian Copilotは、作業中のノートに関連するノートを自動的に探してきてくれます。これがさりげなく非常に便利で、過去の自分の思考を掘り起こしたり、思わぬ繋がりを発見したりするきっかけになっています。
- カスタムプロンプトの威力: 特に「要約」や「簡単に言い換える」といったカスタムプロンプトは、日々の作業を大幅に効率化してくれる、手放せない機能となりました。自分でプロンプトをカスタマイズできるので、Obsidian Copilotを自分専用のAIアシスタントとして活用できるのがありがたいです。
カスタムプロンプトで、文を要約させている例
今後の展望
Obsidian Copilotは発展途上のプラグインであり、今後の進化に期待しています。特に、機能拡張(画像生成、音声入力など)、RAGの高度化、UI/UXの改善に注目しています。
私自身の活用計画としては、Obsidian Copilotを日々の作業に取り入れ、新しいワークフローを構築したいと思っています。具体的には、
- 設定の最適化: 自分の作業スタイルに最適な設定を見つける。
- LLMモデルの選定: 速度、精度、プライバシーのバランスが良いモデルを探す。
- プロンプトエンジニアリング: 効果的なプロンプト作成技術を磨く。
Obsidian Copilotは、私のノート活動を変える可能性を秘めたツールです。その進化にうまく便乗し、学び続け、共に成長していきたいです。
リンク集
-
Obsidian公式ページ: https://obsidian.md/
-
Obsidian Copilotプラグイン(GitHub): https://github.com/logancyang/obsidian-copilot
-
Smart Composerプラグイン(GitHub): https://github.com/glowingjade/obsidian-smart-composer
-
Ollama公式ウェブサイト: https://ollama.ai/
-
解説記事: Obsidian Copilotの導入と活用方法: https://note.com/mekann/n/n4d337ccd8d95
-
解説記事: Smart Composerの導入と活用方法: https://zenn.dev/y16ra/articles/e17dd3349836c3
-
解説記事: Ollamaを用いたローカルLLMの実行方法: https://zenn.dev/kesin11/scraps/244a9939f87a39
この記事は Obsidian Copilotのすゝめ:ノート活動を変える可能性のある壁打ち相手 - mxt forest に基づいています。最新の情報や更新は、元の記事でご確認ください。
環境
以下のバージョンで実施しました。
- Obsidian v1.8.9
- macOS Sequoia 15.3.2
- MacBook Pro (14-inch, 2021)
おわりに
Obsidian Copilotを導入して1週間が経過しました。私のObsidianを用いたノート活動は、大きく変化しました。一人で作業しているのではなく、誰かと壁打ちしながら物事を進めているような感覚です。
特に、カスタムプロンプトの機能は、作業効率を大幅に向上させました。人に読んでもらうためには、文章の情報量と密度のコントロールが鍵となります。しかし、LLMが作る文章も、人間がつくる文章も、基本的には冗長になりがちです。情報量を落とし密度を上げる作業が必須となります。手作業で行うのも楽しいですが、パートナーがいることで、さらに楽しい体験へと変わりました。
Obsidian Copilotの機能を完全に活用できているわけではありません。RAG機能の高度化や、新しいLLMモデルの登場など、Obsidian Copilotには、まだ多くの潜在能力があると感じています。
「Obsidian Copilotは、私のノート活動を変える可能性を秘めたツールである」
これが、現時点での率直な評価です。Obsidian Copilotの今後の発展に期待するとともに、私自身もObsidian Copilotを積極的に活用し、その進化に貢献できるよう、継続的な利用を続けていく所存です。この有用なツールは、Obsidianユーザーの方々、特に文章作成に携わる方には、非常に役立つ可能性があると愚考いたします。