はじめに
こんにちは、brownfoxです。
以前、LLMとの長期プロジェクトで「1タスク1チャット」を徹底し、コンテキストをドキュメントで管理する手法についての記事を書きました。
また別記事では、長いチャットでも動作が軽いGeminiを愛用しているという比較記事も書かせていただきました。
これらの記事で一貫して課題としていたのが、**「LLMは長期的な記憶を持たない」**という大前提です。
しかし今年、過去のスレッドを参照できる機能が、Geminiに追加されました
(もともとChatGPTで開発を始めたこともあり、この新機能について、恥ずかしながら知りませんでした。。。)
今回は、この新機能によって、私の開発スタイルがどう変わったかをご紹介します。
Geminiの「記憶」機能とは?
💡 一言でいうと、**「過去の全ての会話の中から、関連する情報を自動で思い出してくれる機能」**です。
これまでのLLMが持つ「コンテキストウィンドウ(短期記憶)」とは全くの別物です。以前、Gemini自身に聞いたところ、コンピュータに例えて下記のように説明してくれました。
- 短期記憶(RAM): 現在のチャットのやり取り。高速だが容量に限りがあり、古くなると忘れる。
- 長期記憶(ストレージ): これまでの全チャットのログ。「〇〇の件、どうなった?」と聞くと、この膨大なログの中から関連情報を見つけ出し、思い出してくれる。
つまり、私が毎回行っていた「ドキュメントをコピペして、以前の状況を思い出させる」という作業を、Geminiが自律的に行ってくれるようになったのです。
これまでのワークフローはどう変わったか?
この機能のおかげで、開発の始め方が劇的にシンプルになりました。
Before:従来のやり方
これまでは、新しいチャットを始めるたびに、下記のような手順を踏んでいました。
- 新しいチャットを開始する。
- プロジェクトの概要、技術スタック、ファイル構成、DB設計などをまとめた、20ページ近いドキュメントを添付する。
- 関連するソースコードを添付する。
- ようやく、その日のタスクを開始する。
正直、この準備作業が毎回の地味なストレスでした。
After:新しいやり方
記憶機能が有効になってからの始め方は、信じられないほど簡単です。
私: Readプロジェクトの続きを始めよう。今回はユーザー認証機能の実装について相談したい。
これだけです。
いやぁ。。さすが検索エンジンの会社。。
この一言で、Geminiは「Readプロジェクト」に関する過去の議論(例えば、以前決めたDBのテーブル仕様や、使用するライブラリなど)を自動で参照し、文脈を理解した上で、すぐにタスクに関する対話が始まります。
具体的なメリット
1. コンテキスト共有の手間がゼロに
言うまでもなく、これが最大のメリットです。あの面倒なコピペ作業から完全に解放されました。
2. 過去情報のピンポイント検索
開発中、「あれ、あの時の仕様どう決めたっけ?」と過去のチャットログを遡ることがよくありました。今では、それもGeminiに聞くだけです。
私: Readプロジェクトで、プッシュ通知のサーバー側の仕様をもう一度見せて。
このように聞くだけで、過去の会話から正確な情報を持ってきてくれます。
3. タスクの切り替えがスムーズに
「1タスク1チャット」の原則は今も有効ですが、タスク間の移動が非常にスムーズになりました。Readプロジェクトの途中で、別のアプリ開発のアイデアについて壁打ちしたい時も、昔の文脈を思い出させる必要がありません。
まとめ
Geminiの「記憶」機能は、単なる便利機能ではなく、LLMとの共同作業のあり方を変えるパラダイムシフトだと感じています。
以前、コード書くなら ChatGPT と Gemini どっち? という記事を書きましたが、個人的には更にGemini派になってます。
これまで私たちが「LLMの制約」として受け入れ、様々な工夫で乗り越えようとしてきた「長期記憶の欠如」という課題。それに対するGoogleの、あまりにもスマートな回答に驚かされるばかりです。
長期的なプロジェクトでLLMを活用している(または、しようとしている)全ての方にとって、間違いなく朗報だと思います。ぜひ、試してみてください。

