0
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

MCPサーバをハブに、ナレッジマネジメントのフォーメーションを考える

Posted at

はじめに

AIと共に仕事をするのが当たり前になった今、便利なツールが増えすぎて、自分の知識(ナレッジ)をどこにどうやって蓄積し、活用すればいいのか、頭が拡散してしまいました。

Cursorを司令塔として、点在するナレッジソースを連携させ、AIを自分の文脈を理解するパートナーに育て、具体的なワークフローを構築したい。どう思考を整理したか、そのプロセスと結論を共有します。

本質的な問い:本当にやりたいこと

ツール選びの検討に入る前に、根本的な目的を再確認。

「Cursorという日々の作業場所から、自分が蓄積・信頼しているナレッジソースにシームレスにアクセスし、AIエージェントをパートナーとして活用しながら、業務の質と速度を劇的に向上させたい」

この目的を達成するためには、ナレッジマネジメントを3つのフェーズに分けて考えるのが効果的。

  1. インプット: いかに効率よく情報を収集し、一次処理するか。
  2. ストック: 収集した情報を、いかに価値ある「自分の知識」として育て、構造化するか。
  3. アウトプット: ストックした知識を、いかにAIが活用しやすい形で提供し、業務に活かすか。

この「情報の流れ」に沿って各ツールの役割を決めることで、頭をすっきりしました。

結論:最強のハイブリッドワークフローを組む

例えば、NotionかNotebookLMかと、ツールを選定するのではなく、結論は両方使うです。単一の完璧なツールを探すのではなく、各ツールの長所を活かした「ハイブリッドワークフロー」を構築する。

先に、完成系の形を示します。

このワークフローの技術的な要となるのが、Cursorに自前のナレッジソースを接続するModelContextProtocol(MCP)サーバです。これにより、NotionやGitHubといったバラバラのツールを、Cursor上から@コマンドという統一されたインターフェースで扱えるようになります。

以下に、具体的なモデルを紹介します。

【インプット担当】Google NotebookLM:超高速リサーチアシスタント

  • 役割: あなたの「短期集中リサーチアシスタント」。
  • 使い方:
    • 気になる技術記事のURL、参考論文のPDF、仕様書のドラフトなどを、躊躇なく放り込みます
    • AIに「この記事の要点を3行で教えて」「この2つの技術のメリット・デメリットを比較して」などと質問し、情報の核心を高速でキャッチアップします。
    • ポイントは「使い捨て」と割り切ること。 ここは、あくまで情報の一次処理と概要把握の場です。恒久的な保管場所ではありません。

【ストック担当】Notion / Obsidian:「第二の脳」を育てる庭

  • 役割: あなたの「知識の保管庫」であり、「思考を育てる庭」。AIが参照するメインの知識ソースです。
  • 使い方:
    • NotebookLMで得た知見や、日々の業務での気づき、会議の議事録など、「これは将来も参照する価値がある」と判断した情報だけを、必ず自分の言葉で再構成してNotionに記録します。
    • Notionのデータベース機能やリレーションを駆使して、知識を体系的に構造化しましょう。例えば、「データガバナンス」「データ品質」「ETLツール」といったカテゴリでページを分け、関連プロジェクトとリンクさせます。
    • AIを賢くする秘訣は、この「ストック」の質にあります。 構造化され、単なるコピペじゃないあなたの文脈が反映された知識は、AIにとって最高の教科書となります。(Obsidianのグラフビューやリンク機能も、この役割に適していそう。)

【業務文脈担当】Slack / GitHub:リアルタイムな「生きた情報源」

  • 役割: 体系化された知識に「生きた業務文脈」を与える情報源。
  • 使い方:
    • これらは意図的にナレッジを貯める場所ではありません。しかし、Cursorの@機能(MCPサーバ経由)で連携することで、AIは過去の議論やコードの変更履歴を理解できるようになります。
    • 体系化された知識(Notion)と、リアルタイムの業務文脈(Slack/GitHub)を組み合わせることで、より的確なサポートが可能になります。

【アウトプット担当】Cursor:すべてを束ねる「コックピット」

  • 役割: 全てのナレッジソースとAIを結集させる「統合開発・思考環境」。
  • 使い方:
    • @Notion@GitHub などのコマンド(MCPサーバで設定したもの)を使い、AIとの対話に必要な知識ソースをその場でコンテキストに含めます。
    • 具体的な指示の例:
      @Notion の「データカタログ設計原則」のページを参考にして、このDB設計に対するレビューポイントを5つ挙げてください。
      
      @GitHub のリポジトリにある`README.md`と、@Slack の #proj-data-pipeline チャンネルの直近の議論を要約して、この機能の仕様ドラフトをMarkdownで書いて。
      
      私が @Notion に書いた「dbtベストプラクティス」のページに基づいて、このSQLをリファクタリングしてほしい。
      

おわりに

思考が拡散していましたが、これでひとまずスッキリ整理できました。

  • 悩むな、連携させよ。 ツールは競合ではなくパートナー。
  • 情報の「流れ」で役割を分ける。
    • インプット(高速化): Google NotebookLM
    • ストック(体系化): Notion / Obsidian
    • 活用(統合): MCPサーバをハブとして、 Cursorにすべてを集約。
  • AIを育てる鍵は「ストック」の質。 自分の言葉で構造化された知識が、AIを凡庸なチャットボットから、有能なパートナーへと進化させる。

この小さなサイクルを試して改良するために、

  1. テーマを決める: リサーチしたいテーマを1つ決める(例: "Data Mesh")。
  2. NotebookLMでリサーチ: 関連URLやPDFを投入し、AIと対話して概要を掴む。
  3. Notionに清書: そこで得た本質を、自分の言葉でNotionの1ページにまとめる。
  4. Cursorで活用: 後日、そのテーマに関連する作業で、@Notionでそのページを呼び出し、AIに仕事をさせてみる。

このサイクルを一度体験したことで、AIが自分の知識と文脈を理解し、共に成長していける感覚を持てました。もちろん、これが唯一の正解ではありません。最近、Notionへの清書ではなく、Cursor内に直接Markdownファイルとしてストックする形も試しています。

大切なのは、完璧なフローを追い求めるのではなく、自分に合わせて常に改良し続けることですね。この記事が、皆さんがご自身の「最強のワークフロー」を見つけるための、一つのヒントになれば幸いです!

0
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?