この記事はマナビDXクエストで得たものAdventCalendar2025 シリーズ2の23日目の記事です。ネタが尽きました、という話をします。
きっかけ: そりゃそうとしか言いようがない
説明不要だと思います。ネタが尽きました、としかいいようがない。一人でアドカレ完走する人、絶対おかしいよ。脳内にローカルLLM絶対インストールしてるよ。
さて、普通の人間であるところの僕は、さすがに生成AIにまた頼ることを考えてしまうわけです。手法としては、過去記事を全部AIに読ませて、次のネタを出させようという作戦です。帰納的にいいネタを生み出せるかもしれない。Claude Codeはパターンを見つけ、ギャップを指摘してきた。「チーム向けの話が足りない」「継続の追跡がない」「組織導入のPlaybookがない」。これでいい記事が書けると言い張るので書いてもらった。
ところが何も面白くない。方向性も全然ピンと来ない。面白くなさ過ぎて奇跡的にネタになる可能性が見えてきました。
つまり、僕が欲しいのは「新しい方向性」じゃない。同じ方向性で、まだ書いてない具体例だと気づいたのです。そう、これは帰納法と演繹法の違いです。よ、よし。これでいくぞ。
突然の気付き: 生成AIは帰納法が苦手説
何度も記事で触れている話ながらおさらいすると、帰納法(Induction)は、具体的な観察や個別の事例から出発して、そこに共通するパターンや一般的な法則を導き出す考え方です。たとえば、記事A、B、Cそれぞれを注意深く観察しながら「共通パターンはXだ」と見出したりする、いわばボトムアップ型の推論です。
一方で、演繹法(Deduction)はその逆で、すでにある一般的な原理や理論を起点にし、そこから個別のケースに対して具体的な結論を引き出していく考え方です。たとえば「Xというフレームワークがあるならば、当然YやZ、さらにWも成り立つはずだ」と展開していくような、トップダウン型の考え方です。
今回は、何も考えずに取り組んだわけですが、結果としては帰納的な手法をやっているわけです。AIに22記事を食わせてパターンを見つけさせました。確かにパターンは出てきました。「技術系」「ポエム系」「コミュニティ系」という分類や、シリーズのつながり、ギャップ。ところが、そこから導き出せるメッセージなんて何もなく、なんにも面白くなかったです。そして、これじゃいけないと導き出された法則性から逸脱させたところ、何にも繋がらない話になってしまいました。
でもこれ、イメージした帰納法と違いすぎない?
AIがやってるのは「既にデータに含まれているパターンを抽出する」こと。これは帰納法っぽく見えるけど、じっさいのところ違う気がします。つまり、帰納法ときいて僕らが想像するのはまだ誰も気づいていない法則を発見することのように思うのです。
- ニュートンがリンゴを見て万有引力を思いつく
- ダーウィンがフィンチの嘴を見て進化論を思いつく
- 僕が何気ない日常の出来事から「これ記事になる」と気づく(急にレベルが低い話ですいません)
これらは、データから「読み取れる」とは少し違います。すなわち、データを超えた跳躍がある。
- 全然関係ないと思っていた2つの経験が、突然つながる
- 「あ、これとこれ、同じ構造じゃん」と気づく
- その瞬間、新しい概念が生まれる
これは計算じゃない。連想だ。そして連想には、人間の身体性、経験、感情が絡んでいる。AIに22記事を読ませても、「あなたの記事群から発見した、誰も言語化していない新しい法則はこれです」とは言ってこない。言ってくるのは「パターンはこう分類できます」「ギャップはここです」という、既存の枠組みでの整理なんですよね。
逆に生成AIは演繹法が得意
一方で、演繹法ではAIは本当に強いです。「Zettelkastenというフレームワークがある。これを医療に応用するとどうなる?教育に応用するとどうなる?製造業に応用するとどうなる?」こういう問いには、AIは無限に答えられます。原理があれば、そこから派生を生成できる。疲れない。飽きない。網羅的にやれる。
カスタムコマンドの/branchは演繹法のツールとして作成したのですが、「このメモを分岐させろ」と命令すると、同じ幹から新しい枝を生やしてきます。僕が見つけた原理(幹)を渡せば、AIが具体例(枝)を無限に生成する。
ここまでの整理
整理すると、こうなります。
- 帰納法(新しい法則の発見) → 人間向き。AIは苦手。
- 演繹法(法則からの派生生成) → AI向き。人間は飽きる。
だからネタが尽きたときは、「AIにネタ出させよう」じゃなくて、「自分で新しい法則を見つけて、AIに派生させよう」が正解...
...と、ここまで書いて、ふと気づきました。
違和感: ちょっと待て、今何が起きた?
「AIは帰納法が苦手」という結論。これ、どうやって導き出されたんでしょうか。
プロセスを振り返ってみます。
- 僕が「ネタがない」と言った
- AIが22記事を分析して「こういうパターンがあります」と言ってきた
- それで書いた記事がぬるかった
- 僕が「欲しいのは同じ方向性の新コンテンツだ、これは演繹法だ」と気づいた
- AIが「じゃあAIは帰納法が苦手なのでは?」と跳躍した
5番目。これ、帰納的な跳躍じゃないですか?
具体的な失敗事例(記事がぬるかった)から、一般法則(AIは帰納法が苦手)を導き出している。AIが、帰納法をやって、「AIは帰納法が苦手」という法則を発見している。
矛盾してないか、これ。
本当の気付き: 対話が帰納法を可能にしてない?
もう少し丁寧に見てみます。
確かにAIは「AIは帰納法が苦手」という結論に到達しました。でも、それはAI単独でやったことじゃない。
- 「演繹法/帰納法」というフレームワークは僕が持ち込んだ
- AIはそれを現象に当てはめた
- でも「苦手なのは帰納法だ」という跳躍は、対話の中で生まれた
つまり、人間が種を蒔いて、対話の中でそれが育った。これ、重要な発見かもしれません。AIは単独では帰納法ができない。でも、人間との対話の中でなら、帰納的な跳躍が起きることがある。結論がひっくり返るじゃん。
考えてみれば、人間だって一人で帰納法をやるのは難しいです。ニュートンだってダーウィンだって、他の科学者との議論や手紙のやり取りの中で着想を得ています。「一人で風呂に入ってたらひらめいた」みたいな話は美化されがちですが、その前に膨大な対話があったはずです。帰納法には触媒が必要なのかもしれません。
AI単独で22記事を読んでも、パターン分類しか出てこない。でも、人間と対話しながら「これじゃない」「もっとこっち」とやり取りしていると、どこかで跳躍が起きる。その跳躍が、帰納的な発見になる。
発見: ネタが尽きたときの本当の答え
だから、「ネタが尽きたらどうすればいいか」の答えが見えてきました。
- AIに丸投げしない — 22記事読ませて「ネタ出せ」は帰納法を期待してる。これは失敗する。
- 一人で悩まない — 人間が一人で帰納法をやるのも難しい。風呂に入っても何も浮かばないときは浮かばない。
- 対話する — AIと、あるいは人間と。「これがぬるい」「こっちじゃない」「もしかしてこういうこと?」というやり取りの中で、跳躍が生まれる。
今回、僕とAIの対話の中で「帰納法と演繹法」という軸が生まれ、「AIは帰納法が苦手」という仮説が生まれ、そして「でもその結論自体が帰納的だぞ」というメタな気づきが生まれました。
これは、AIに「ネタ出せ」と丸投げしても出てこないなあと。対話したから出てきたように思います。
まとめ
ネタが尽きました。
AIに22記事を全部読ませました。つまらない記事が出てきました。
そこから対話が始まりました。「何がダメだったのか」「本当に欲しいのは何か」「帰納法と演繹法では?」「AIは帰納法が苦手?」「でも今の気づき自体が帰納的では?」
この対話のプロセス全体が、一つの帰納的発見でした。そして、その発見がこの記事になりました。
結論:ネタが尽きたら、対話しよう。
AIに丸投げするな。一人で悩むな。誰かと(AIでも人間でも)「これじゃない」「もっとこっち」と壁打ちしろ。その摩擦の中から、次のネタが生まれる。
少なくとも今回は、そうやってこの記事が生まれました。やったね。