はじめに
TRIAL&RetailAI Advent Calendar 2025 の 2 日目の記事です。
昨日は @Plath さんの『kubernetes Deep Dive (etcd + Raft)』という記事でした。「etcd + Raft」 の必要性が理解出来て、いい感じです👍
本記事では、「○○が××%を説明する」の裏にある落とし穴と、生成AIで誰でも実践できる複数シナリオ分析の方法について紹介していきます!
目次
🚀 「○○%で決まる」という分析の落とし穴
「売上の7割は、リピーター数で説明できます」
「離職率の80%は、残業時間で決まっています」
ビジネスの現場で、こんな分析結果を見たことはありませんか?あるいは、自分でこういった報告をしたことがある方もいるかもしれません。
決定係数R²や「寄与度」を使って 「○○が××%」 と説明するのは便利です。しかし、この種の数字には、実は深刻な問題が潜んでいます。
本記事では、一見無関係に思える 行動遺伝学の「遺伝性」 という概念と、経済学者チャールズ・マンスキーの批判を題材に、データ分析における根本的な落とし穴を解説します。そして、生成AIを使えば、より誠実で実用的な分析が誰でもできることを示します。
この記事で分かること
- なぜ「○○%寄与」という説明はトートロジー(同語反復)なのか
- 分析者がなぜ「強い仮定」に頼りすぎるのか(マンスキーの批判)
- 点推定「45%」ではなく区間推定「30-60%」で考える意義
- 生成AIを使って、専門家でなくても複数シナリオでの分析ができる方法
こんな人に読んでほしい
- 分析結果を報告する・受け取る立場の方
- 生成AIを分析業務に活かしたいと考えている方
統計や機械学習の専門知識がなくても理解できるように書いています。この記事を読み終える頃には、分析結果をより慎重に解釈し、不確実性を正直に伝えられるようになるはずです。
🧬 遺伝性とは?数式で理解する基本概念
まず、遺伝性(heritability)の定義を見てみましょう。観察される形質 y(例:身長、IQ)を、次のように2つの成分に分解します:
y = g + e
ここで g は遺伝要因、e は環境要因です。母集団において g と e に相関がない(Cov(g, e) = 0)と仮定すると、形質の分散は次のように分解できます:
Var(y) = Var(g) + Var(e)
遺伝性 h² は、形質全体の分散に占める遺伝要因の分散の割合として定義されます:
h^2 = \frac{Var(g)}{Var(y)} = \frac{\text{Var}(g)}{\text{Var}(g) + \text{Var}(e)}
例えば h² = 0.8 なら 「形質の個人差の80%が遺伝的違いによって説明できる」 という意味です。一見すると明快な定量的指標に見えますが、ここには深刻な問題が潜んでいます。
実は、ビジネスでよく使われる「○○が××%を説明する」という分析も、遺伝性と同じ構造です。要因に分解して割合を計算する方法は、決定係数R²など様々な場面で使われますが、すべて同じ落とし穴があります。
🌀 落とし穴:トートロジーの正体
遺伝性の定義には トートロジー(同語反復) という深刻な問題があります。トートロジーとは「定義上必ず真となる循環的な命題」のことです。
遺伝性の計算プロセスを詳しく見てみましょう:
- y = g + e というモデルを立てる
- 「遺伝要因 g」を測定する
- h² = Var(g) / Var(y) を計算する
- 「形質の○○%は遺伝で決まる」と解釈する
問題はステップ2です。「遺伝要因 g」をどうやって測定するのでしょうか?
実際には、双生児法なら「一卵性双生児の類似度と二卵性双生児の類似度の差」を遺伝要因と定義します。つまり、測定方法そのものが「遺伝要因」を定義しているのです。
ここに論理的な循環があります:
1. 「何が遺伝要因か」を測定方法によって定義する
2. その定義に基づいて分散を分解する
3. 分解結果を「遺伝の寄与」と再解釈する
4. しかし「遺伝要因」は独立には定義されていない
つまり、「遺伝要因として定義したものの分散の比率」を計算して、それを「遺伝の寄与」と呼んでいるだけなのです。
💻 実務への応用:分析者の「強い仮定」という罠
ここまで見てきたトートロジーの問題は、より深刻な問題の一部です。経済学者チャールズ・マンスキーは、分析者の姿勢について鋭い批判を行っています。
incredible certitude:信じられないほどの確信
マンスキーが指摘する問題は「incredible certitude(信じられないほどの確信)」です。分析者は、データから何かを言うために強い仮定を置きます。しかしその仮定が妥当かは検証されないまま、結論だけが確信を持って語られます。
遺伝性なら「g と e は独立」という仮定。データ分析なら「他の要因の影響はすべて観測されている」という仮定。これらがすべて正しい場合にのみ、「60%」という数字は意味を持ちます。 しかし仮定は疑わしいのに、数字だけが一人歩きします。
なぜこうなるのか?「30%〜60%」より「45%」の方が分かりやすく、ビジネスは「分からない」より明確な数字を求めるからです。
マンスキーのアプローチ:部分識別
マンスキーは 部分識別(partial identification) を提案します。
従来: 強い仮定 → 点推定「効果は45%」
部分識別: 弱い仮定のみ → 区間推定「効果は30%〜60%」
例えば広告効果の分析で、他の要因の影響の程度が不明な場合:
最悪ケース(他の要因の影響が強い): 効果 10%
最良ケース(他の要因の影響なし): 効果 80%
追加の仮定を置くと区間が狭まる:
「競合の影響は±20%以内」と仮定 → 30%〜60%
実務での実践
仮定を明示する
悪い例:「広告効果は45%です」
良い例:「観測された変数を調整し、他の重要な要因の影響がないと仮定すると、
広告効果は45%と推定されます」
感度分析を示す
ベースライン推定: 効果 45%
├─ 他の要因の影響なし: 45%
├─ 弱い影響: 35%
├─ 中程度の影響: 25%
└─ 強い影響: 10%
結論: 他の要因の影響の程度によって、効果は10%〜45%の範囲
「分からない」ことは「分からない」と言う勇気が、長期的な信頼につながります。
生成AIを活用した新しいアプローチ
従来、複数の仮定で感度分析を行うのは専門家にしかできない高度な作業でした。しかし生成AIが使える今、普通の担当者でも、複数の仮定に基づく分析ができるようになりつつあります。
※注意:以下の例では、Claude、ChatGPT(Code Interpreter)、Geminiなどのコード実行機能を持つ生成AIを想定しています。データのアップロードと分析コードの実行が可能な環境が必要です。
具体例:新キャンペーンの効果予測
マーケティング担当者のあなたが、新しいメールキャンペーンの効果を予測する場面を想定します。
ステップ1:仮定を洗い出す(生成AIに依頼)
プロンプト:
「過去のメールキャンペーンデータから、新キャンペーンの効果を予測したい。
どんな仮定が必要か、リストアップしてください」
AIの回答:
1. 過去と新キャンペーンで、顧客層が同じ(選択バイアスなし)
2. 季節性の影響は同程度
3. 競合のキャンペーンなど、他の要因の影響は無視できる
4. メール開封率は過去の平均と同じ
5. 購買行動パターンは変わっていない
ステップ2:複数の仮説シナリオを作る(生成AIに依頼)
プロンプト:
「上記の仮定のうち、2と3が怪しいと思います。
楽観・中立・悲観の3シナリオで効果を推定してください」
AIの回答:
【楽観シナリオ】
- 仮定2: 今月は購買意欲が高い季節
- 仮定3: 競合は静か
- 推定効果: コンバージョン率 8-12%、売上増 ¥500-800万
【中立シナリオ】
- 仮定2: 季節性は平均的
- 仮定3: 競合の影響は軽微
- 推定効果: コンバージョン率 5-7%、売上増 ¥300-500万
【悲観シナリオ】
- 仮定2: 前月の大型セール後で購買意欲低下
- 仮定3: 競合が同時期に大型キャンペーン
- 推定効果: コンバージョン率 2-4%、売上増 ¥100-200万
ステップ3:区間推定に基づく意思決定(生成AIに依頼)
プロンプト:
「キャンペーンコストは¥150万です。
上記3シナリオを踏まえて、実行すべきか判断してください」
AIの回答:
【分析】
- 悲観シナリオでも最低¥100万の売上増(損益分岐点には届かず)
- 中立シナリオなら¥300-500万(コストの2-3倍)
- 楽観シナリオなら¥500-800万(コストの3-5倍)
【推奨】
実行を推奨しますが、リスクヘッジとして:
1. 初週のデータで早期判断(悲観シナリオなら中止)
2. 予算の一部を競合モニタリングに充てる
3. 季節性データをもう一度確認する
【追加で検証すべきこと】
- 前回キャンペーン後の購買回復期間
- 競合の動向(SNS、広告モニタリング)
このように、生成AIは:
- 専門知識がなくても仮定を洗い出せる
- 複数シナリオでの区間推定を自動化
- 不確実性を踏まえた意思決定を支援
してくれます。
※補足: この感度分析・シナリオ分析は、厳密な意味での部分識別(数学的な識別集合の特定)ではありません。しかし、経済学者マンスキーが提唱する 「不確実性を正直に伝え、結果を区間(幅)で考える」という哲学を、実務レベルで体現する、誠実なアプローチです。
生成AIでできること
1. 仮定の明文化
「この分析の暗黙の仮定をリストアップして」
→ 見落としがちな前提条件を洗い出し
2. 複数シナリオの自動生成
「仮定A・B・Cが不確実。それぞれ楽観・中立・悲観で分析して」
→ 各ケースでのコード生成と実行
* コード実行環境が必要(ChatGPT Plus、Claude、Gemini Advancedなど)
3. 感度分析の可視化
「仮定Aを変えたときの結果の変化をプロットして」
→ どの仮定が結果に大きく影響するか把握
* コード実行環境が必要
4. 透明性の高いレポート作成
「この分析を、仮定を明示した形で経営層向けにまとめて」
→ 複数シナリオを並べた報告書
従来との違い
| 従来の分析 | 生成AI活用の分析 | |
|---|---|---|
| 実施者 | 専門の分析者のみ | 担当者でも可能 |
| 仮定の扱い | 暗黙的、1つだけ | 明示的、複数検討 |
| 結果 | 点推定「45%」 | 区間推定「30-60%」 |
| 時間 | 数日〜数週間 | 数時間 |
| 透明性 | ブラックボックス化 | 仮定が明確 |
マンスキーが提唱する「複数の仮定での分析」が、生成AIによって誰でも実践可能になります。「45%という確信」ではなく、「10%〜60%という幅の中で、どう意思決定すべきか」という、より誠実で実用的なアプローチが取れるようになります。
🎓 まとめ:より良い分析のために
遺伝性という概念から始まり、マンスキーの批判を通じて、私たちは分析における根本的な問題を見てきました。
核心は「測定=定義」という循環と、「強い仮定への過度な依存」です。
「○○が××%寄与している」という数字は、特定の測定方法によって定義され、多くの検証困難な仮定の上に成り立っています。その仮定が破れたときの脆さは、ほとんど語られません。
分析者としての心がけ
- 仮定を明示する - 「効果は45%」ではなく「仮定A、B、Cの下で効果は45%」
- 感度分析を行う - 仮定を変えたら結果はどう変わるか?最悪・最良ケースは?
- 不確実性を隠さない - 「30%〜60%の間」という幅のある答えも価値がある
- 「分からない」と言える勇気 - その限界を認めることが、長期的な信頼につながる
最後に
「広告費の効果は45%です」と言い切る分析と、「現在のデータでは30%〜60%の間としか言えません」と言う分析。
後者は一見、価値が低そうに見えます。しかし、実際の効果が10%だったとき、どちらが信頼されるでしょうか?
データ分析の価値は、不確実性の下で最良の意思決定を支援することです。 そして今、生成AIがあれば、この誠実なアプローチを誰でも実践できます。トートロジーの罠を理解し、強い仮定への依存を自覚し、謙虚さを持って分析に向き合う。それが、この記事から得られる最も重要な教訓です。
参考文献
- Lewontin, R. C. (1974). "The analysis of variance and the analysis of causes"
- Manski, C. F. (2007). "Identification for Prediction and Decision"
- Manski, C. F. (2013). "Public Policy in an Uncertain World"
- Pearl, J. (2009). "Causality: Models, Reasoning, and Inference"
明日のアドベントカレンダーは、@atsukish さんの『Anthropic が示した「コード実行で 98.7% トークン削減」を安全に実装する』です。
ぜひお楽しみに!!
最後になりますが、Retail AI と TRIAL ではエンジニアを募集しています。
興味がある方はご連絡ください!