NotebookLMとDeepResearchの登場で本を読んだり
勉強会などで最新の情報をインプットする体験が大きく変わったと感じたのでメモ
NoteBookLMとDeepResearchが登場する前までの世界
今までは、流行りの技術やトレンドをインプットするには
ウェブサイトとかブログ記事などを読んでインプットしつつ、
必要ならオンライン・オフラインのイベントに参加してメモ取ってという感じでした。
そしてある程度時間が経ってから、体系だった情報として本が出版されるまで待って、
関連書籍を2‐3冊買って読んでという感じでキャッチアップしていた。
洋書で発売された場合には翻訳を待つまでに数ヶ月かかったり、
その間にトレンド自体が大きく変わってしまったりとかしょっちゅうあった。
DeepResearchの登場
DeepResearchが登場したことによりふわっとわからないことなど最新のトレンドなどについて教えてと聞くだけで
いろんなサイトや情報などは引っ張ってきてくれてそれをサマライズしてくれるようになった。
それぞれの情報に引用元がついており掘り下げたい場合はそのサイトにアクセスするという体験に変わった。
また壁打ちなどをして理解度を深めることができるようになった。
これのすごいところは自分で能動的に探しに行かなくても自動で探しに行ってくれたい
Web 上の情報を自動でクローリングしてきてくれるので最新のトレンドなども含めてまとめてくれる
そのレポート自体をPDFなどで保存することもできる。
NotebookLMの登場
Google Docs や PDF や音声ファイルなどインポートできるファイルが限られているので、
リリースされた当時はあまり使っていなかった。
なんとか活用できないかと、自分で自炊した紙の本のPDFファイルを突っ込んでみて、
それのサマライズや音声Podcast形式などをやってみたところ体験が非常に良かった。
Podcast形式で 本の内容を掛け合いながら言ってくれるので、
本の内容を思い出して少し疑問に思ってるところとか掘り下げたいところはチャットで深掘りしたりとかできた。
また主催者がOKしている場合に、勉強会で録音とかしておいて、
キーボードをカタカタしてメモを必死で取らなくても、
その録音をNotebookLMに突っ込んで、勉強会が終わってから構造化して要約してもらっている。
今後のインプット方法
個人的にはGoogleで検索することをやめていてGemini経由で情報を持ってきてもらったりするようにしている。
自分で YouTube などを見たりとか
エラーコードを検索してそれの真偽を確かめたりするとかよりも、
一旦一次情報をDeepResearchで集めてきてもらって
それをサマライズしたものを読んで気になったらそのソース元のサイトにアクセスしたりしている。
それだけではなく今まで買った本とか
紙の本をなるべく増やさないように、持っていた紙の本を自炊してPDF化したりとか
Amazon Kindleなどの電子データで買うようにしていた。
その PDF 化した本をNoteBookLMに入れてPodcast化してもらうということで、
その本のエッセンスなどを思い出したりとかで少し気になったところをNoteBookLMで
詳しく質問する事によってインプット体験の質を大きく変わった。
あと質問項目自体も出してくれるので、どんどんAIとの対話で深ぼることができている。
こうなってくると数百ページあるような本を全て読むという体験ではなく一旦NoteBookLMに入れて
その中でPodcastや要素をサマライズしてもらい
気になったところをチャット形式で対話していくインプット形式に変わってきてしまった。
こうなると出版というもの自体が大きく変わってくるのではないかと思った。