0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

【因果推論】感度分析入門:推定結果の頑健性を検証する

Posted at

1. はじめに

因果推論で直面する「見えない問題」

因果推論を行う際、私たちは常にある前提条件の下で分析を進めています。例えば、傾向スコアマッチングやDIDといった手法を使う時、「観測できる変数で交絡をすべてコントロールできている」という仮定を置いていますね。

しかし、現実のデータ分析では、この仮定が完全に満たされているかどうかを確認することはできません。もし観測されていない重要な交絡因子が存在していたら、推定結果はどれくらい変わってしまうのでしょうか。

感度分析の役割と重要性

感度分析(Sensitivity Analysis)は、こうした「見えない問題」に対処するための手法です。「もし仮定が少し破れていたら、結論はどれくらい変わるか」を定量的に評価することで、推定結果の信頼性を検証できます。

感度分析を行うことで、以下のような問いに答えられるようになります。

  • 観測されない交絡因子がどれくらい強ければ、因果効果の推定値がゼロになるか
  • 現在の推定結果は、どの程度のバイアスに耐えられるか
  • 結論を覆すには、どれほど強い交絡因子が必要か

2. 因果推論の前提条件とその限界

観測されない交絡因子の問題

因果推論において、最も重要な課題の一つが交絡因子の存在です。交絡因子とは、処置と結果の両方に影響を与える第三の変数のことを指します。

上の図で赤色で示した「観測されない交絡因子」が存在すると、処置と結果の関連が見かけ上生じてしまい、真の因果効果を正しく推定できなくなります。

識別可能性の仮定

多くの因果推論手法は、「条件付き独立性の仮定」または「unconfoundedness」と呼ばれる前提条件に依存しています。これは、観測できる変数で調整すれば、処置の割り当てと潜在的な結果が独立になるという仮定です。

数式で表すと以下のようになります。

(Y(1), Y(0)) ⊥ T | X

ここで、Y(1)は処置を受けた場合の潜在的結果、Y(0)は処置を受けなかった場合の潜在的結果、Tは処置、Xは観測される共変量です。

なぜ仮定が破れると推定結果が変わるのか

この仮定が成り立たない場合、つまり観測されない交絡因子Uが存在する場合、推定された因果効果にはバイアスが含まれることになります。

例えば、以下のような状況を考えてみましょう。

  • 新しい教育プログラムの効果を評価したい
  • 参加者の年齢、学歴、所得などは観測できている
  • しかし、「学習意欲」は観測できていない

この場合、学習意欲が高い人ほどプログラムに参加しやすく、かつ学習成果も高いという関係があれば、プログラムの効果を過大評価してしまう可能性があります。

3. 感度分析とは

定義と基本的な考え方

感度分析は、分析の前提条件が破れた場合に、推定結果がどの程度変化するかを評価する手法です。具体的には、観測されない交絡因子の影響の強さをパラメータ化し、そのパラメータが変化したときに推定結果がどう変わるかを調べます。

「どれくらい仮定が破れたら結論が変わるか」を調べる

感度分析の核心は、「結論を覆すにはどれくらい強い交絡が必要か」を定量化することです。例えば、以下のような結果が得られたとします。

  • 推定された因果効果:処置群は対照群より10ポイント高い成果
  • 感度分析の結果:観測されない交絡因子が処置の選択確率を2倍にする程度の強さがあれば、効果がゼロになる可能性がある

この結果から、「2倍程度の選択バイアスでは結論は変わらない」または「2倍のバイアスで結論が変わってしまうので注意が必要」といった判断ができるようになります。

ロバストネスチェックとの違い

感度分析と似た用語に「ロバストネスチェック」がありますが、これらは異なる概念です。

  • ロバストネスチェック:異なる分析手法、サンプル定義、変数選択などを試して、結果が一貫しているかを確認する
  • 感度分析:観測されない交絡因子の影響を定量的にモデル化して、結果の頑健性を評価する

ロバストネスチェックは観測できる範囲での検証であるのに対し、感度分析は観測できない要因の影響を評価する点で異なります。

4. 主要な感度分析の手法

感度分析には複数のアプローチがあり、それぞれ異なる状況で有用です。ここでは代表的な3つの手法を紹介しましょう。

Rosenbaum境界(Rosenbaum Bounds)

Rosenbaum境界は、マッチング分析において最もよく使われる感度分析の手法です。

基本的な考え方

2人の個体が観測される共変量では全く同じ特徴を持っているとします。本来ならこの2人は処置を受ける確率が同じはずですが、観測されない交絡因子のために実際には確率が異なる可能性があります。Rosenbaum境界は、この確率比がどれくらい違っていても結論が変わらないかを評価します。

感度パラメータΓ(ガンマ)

Γは、同じ共変量を持つ2人の個体の処置確率のオッズ比の上限を表します。

  • Γ = 1:観測されない交絡がない(完全にランダム)
  • Γ = 2:同じ共変量でも処置確率のオッズが最大2倍異なる可能性
  • Γ = 3:同じ共変量でも処置確率のオッズが最大3倍異なる可能性

E値(E-value)

E値は、より直感的に解釈できる感度分析の指標として、近年注目を集めています。

定義

E値とは、観測された因果効果の推定値を完全に説明するために必要な、観測されない交絡因子と処置・結果それぞれとの最小のリスク比を表します。

例えば、E値が2.5だとすると、以下を意味します。

「観測された効果を全て交絡で説明するには、観測されない交絡因子が処置と2.5倍以上、かつ結果とも2.5倍以上の関連を持つ必要がある」

解釈のポイント

  • E値が大きい:結論を覆すには非常に強い交絡が必要(頑健な結果)
  • E値が小さい:比較的弱い交絡でも結論が変わる可能性(慎重な解釈が必要)

一般的な目安として、E値が2以上あれば、ある程度の信頼性があると考えられています。

相関制限アプローチ

このアプローチは、観測されない交絡因子と処置・結果との相関の強さを直接パラメータ化する方法です。

基本的な枠組み

以下のような相関係数を仮定します。

  • ρTU:処置Tと観測されない交絡因子Uの相関
  • ρYU:結果Yと観測されない交絡因子Uの相関

これらの相関が特定の値を取るときに、因果効果の推定値がどう変化するかを計算します。

それぞれの手法の特徴と使い分け

手法 適用場面 解釈のしやすさ 実装の容易性
Rosenbaum境界 マッチング分析 中程度 容易(既存ライブラリあり)
E値 あらゆる因果推論 高い(直感的) 容易
相関制限 線形モデル 中程度 やや複雑

初学者の方には、まずE値から始めることをおすすめします。E値は適用範囲が広く、解釈も直感的だからです。

5. 実践例:Pythonでの実装

それでは、実際にPythonを使って感度分析を行ってみましょう。ここではE値の計算を中心に解説します。

データの準備

まず、シミュレーションデータを作成します。

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from scipy import stats
import seaborn as sns

# 日本語フォント設定
plt.rcParams['font.sans-serif'] = ['Arial Unicode MS', 'Yu Gothic', 'Hiragino Sans']

# シード設定
np.random.seed(42)

# サンプルサイズ
n = 1000

# 観測される共変量
X1 = np.random.normal(0, 1, n)
X2 = np.random.normal(0, 1, n)

# 観測されない交絡因子
U = np.random.normal(0, 1, n)

# 処置の割り当て(Xと観測されないUに依存)
logit_T = 0.5 * X1 + 0.3 * X2 + 0.4 * U
prob_T = 1 / (1 + np.exp(-logit_T))
T = np.random.binomial(1, prob_T)

# 結果変数(T、X、Uに依存)
# 真の因果効果は2
Y = 2 * T + 0.5 * X1 + 0.3 * X2 + 0.5 * U + np.random.normal(0, 1, n)

# データフレーム作成
df = pd.DataFrame({
    'T': T,
    'Y': Y,
    'X1': X1,
    'X2': X2,
    'U': U  # 実際には観測できない
})

print("データの基本統計量:")
print(df.describe())

単純な効果推定(観測されない交絡を無視)

まず、Uを無視して因果効果を推定してみます。

from sklearn.linear_model import LinearRegression

# 観測される変数のみを使った回帰分析
X_obs = df[['T', 'X1', 'X2']].values
y = df['Y'].values

model = LinearRegression()
model.fit(X_obs, y)

# 処置効果の推定
estimated_effect = model.coef_[0]
print(f"\n推定された処置効果: {estimated_effect:.3f}")
print(f"真の処置効果: 2.000")
print(f"バイアス: {estimated_effect - 2:.3f}")

E値の計算

次に、この推定値に対するE値を計算します。E値の計算式は以下の通りです。

def calculate_e_value(effect_estimate, se=None, effect_type='mean_difference'):
    """
    E値を計算する関数
    
    Parameters:
    -----------
    effect_estimate : float
        推定された効果の大きさ
    se : float, optional
        標準誤差(信頼区間の計算に使用)
    effect_type : str
        効果の種類 ('mean_difference', 'risk_ratio', 'odds_ratio')
    
    Returns:
    --------
    e_value : float
        E値
    """
    if effect_type == 'mean_difference':
        # 平均差を標準化リスク比に変換
        # 簡易的な変換(より厳密な方法もある)
        if effect_estimate == 0:
            return 1.0
        
        # リスク比への近似的変換
        rr = np.exp(0.91 * effect_estimate)
    elif effect_type == 'risk_ratio':
        rr = effect_estimate
    elif effect_type == 'odds_ratio':
        # オッズ比からリスク比への変換(近似)
        rr = effect_estimate
    else:
        raise ValueError("effect_type must be 'mean_difference', 'risk_ratio', or 'odds_ratio'")
    
    # E値の計算
    if rr >= 1:
        e_value = rr + np.sqrt(rr * (rr - 1))
    else:
        rr_inv = 1 / rr
        e_value = rr_inv + np.sqrt(rr_inv * (rr_inv - 1))
    
    return e_value

# E値の計算
e_value = calculate_e_value(estimated_effect, effect_type='mean_difference')
print(f"\nE値: {e_value:.3f}")
print(f"\n解釈: この結果を完全に説明するには、観測されない交絡因子が")
print(f"処置と{e_value:.2f}倍、かつ結果とも{e_value:.2f}倍の関連を持つ必要があります。")

結果の可視化

感度分析の結果を視覚的に表現してみましょう。

# 様々な交絡の強さに対する推定効果の変化をシミュレート
def simulate_confounding_effect(true_effect, confounder_strengths):
    """
    交絡の強さによる推定効果の変化をシミュレート
    """
    results = []
    
    for strength in confounder_strengths:
        # 交絡によるバイアスをシミュレート
        bias = strength * 0.5  # 簡略化したバイアスモデル
        estimated = true_effect + bias
        results.append(estimated)
    
    return np.array(results)

# 交絡の強さの範囲
confounder_strengths = np.linspace(-2, 2, 100)
estimated_effects = simulate_confounding_effect(2.0, confounder_strengths)

# プロット
plt.figure(figsize=(10, 6))
plt.plot(confounder_strengths, estimated_effects, linewidth=2, color='#2E86AB')
plt.axhline(y=2.0, color='#A23B72', linestyle='--', linewidth=2, label='真の効果')
plt.axhline(y=0, color='#F18F01', linestyle='--', linewidth=2, label='効果なし')
plt.axvline(x=0, color='gray', linestyle=':', alpha=0.5)
plt.fill_between(confounder_strengths, 0, estimated_effects, 
                 where=(estimated_effects > 0), alpha=0.2, color='#2E86AB')

plt.xlabel('観測されない交絡の強さ', fontsize=12)
plt.ylabel('推定される処置効果', fontsize=12)
plt.title('感度分析:交絡の強さによる推定効果の変化', fontsize=14, fontweight='bold')
plt.legend(fontsize=10)
plt.grid(True, alpha=0.3)
plt.tight_layout()
plt.show()

# 信頼区間と共にE値を可視化
fig, (ax1, ax2) = plt.subplots(1, 2, figsize=(14, 5))

# 左のグラフ:推定効果と信頼区間
effect_ci_lower = estimated_effect - 1.96 * 0.1  # 仮の標準誤差
effect_ci_upper = estimated_effect + 1.96 * 0.1
ax1.errorbar([0], [estimated_effect], 
             yerr=[[estimated_effect - effect_ci_lower], [effect_ci_upper - estimated_effect]],
             fmt='o', markersize=10, capsize=10, capthick=2, color='#2E86AB')
ax1.axhline(y=0, color='#F18F01', linestyle='--', linewidth=2)
ax1.set_xlim(-0.5, 0.5)
ax1.set_ylabel('推定された処置効果', fontsize=12)
ax1.set_title('推定効果と95%信頼区間', fontsize=12, fontweight='bold')
ax1.grid(True, alpha=0.3, axis='y')
ax1.set_xticks([])

# 右のグラフ:E値の視覚化
e_values_range = np.linspace(1, 5, 100)
ax2.bar([0], [e_value], width=0.3, color='#A23B72', alpha=0.7, label=f'E値 = {e_value:.2f}')
ax2.axhline(y=2, color='green', linestyle='--', linewidth=2, label='一般的な目安(E=2)')
ax2.set_ylabel('E値', fontsize=12)
ax2.set_title('計算されたE値', fontsize=12, fontweight='bold')
ax2.set_xlim(-0.5, 0.5)
ax2.set_xticks([])
ax2.legend(fontsize=10)
ax2.grid(True, alpha=0.3, axis='y')

plt.tight_layout()
plt.show()

6. 結果の解釈と報告

感度パラメータの読み方

感度分析の結果を正しく解釈することは、因果推論の結論の信頼性を判断する上で重要です。

Rosenbaum境界の場合

Γ値とp値の関係を見て判断します。

Γ = 1.0: p < 0.001  (有意)
Γ = 1.5: p < 0.01   (有意)
Γ = 2.0: p < 0.05   (有意)
Γ = 2.5: p = 0.08   (非有意)

この例では、Γ = 2.5程度の交絡があると統計的有意性が失われることがわかります。つまり、同じ共変量を持つ個体間で処置確率のオッズが2.5倍異なる程度の隠れた交絡があれば、結論が変わる可能性があるということです。

E値の場合

E値の大きさから、以下のように判断できます。

  • E値 < 1.5:かなり弱い交絡でも結論が変わる可能性がある
  • 1.5 ≤ E値 < 2.0:中程度の交絡で結論が変わる可能性がある
  • 2.0 ≤ E値 < 3.0:比較的強い交絡でなければ結論は変わらない
  • E値 ≥ 3.0:非常に強い交絡でなければ結論は変わらない

どの程度の頑健性があれば安心できるか

感度分析の結果をどう評価すべきかは、研究分野や文脈によって異なりますが、一般的な考え方を紹介します。

既存研究との比較

同じような研究領域で報告されている交絡の強さと比較することが有用です。例えば、教育研究では学習意欲や家庭環境などの観測されない要因が、処置と結果にそれぞれ1.5〜2倍程度の影響を持つことが知られています。

実質的な意味での評価

単に統計的な数値だけでなく、「そのような強い交絡因子が実際に存在しうるか」を実質的に考えることも重要です。

例えば、E値が3.0だった場合、「処置と3倍の関連、かつ結果とも3倍の関連を持つ観測されない要因」が現実的に考えられるかを検討します。

論文での報告例

感度分析の結果は、以下のような形で報告するとよいでしょう。

報告例1: E値を使った場合

「傾向スコアマッチングによる分析の結果、処置効果は2.5ポイントと推定された(95% CI: 1.8-3.2)。この推定値に対するE値は2.8であり、観測されない交絡因子が処置と2.8倍、かつ結果とも2.8倍の関連を持たない限り、信頼区間の下限がゼロを含むことはない。この程度の強い交絡は、既存の文献を踏まえると考えにくく、結果は比較的頑健であると判断できる。」

報告例2: Rosenbaum境界を使った場合

「マッチング分析による処置効果は統計的に有意であった(p < 0.001)。Rosenbaum境界を用いた感度分析の結果、Γ = 2.2まで統計的有意性が維持された。これは、同じ共変量を持つ個体間で処置確率のオッズが2.2倍異なる程度の隠れたバイアスがあっても、結論は変わらないことを意味している。」

報告時の注意点

  • 感度分析の具体的な手法を明記する
  • パラメータの意味を読者に分かりやすく説明する
  • 数値だけでなく、実質的な解釈も加える
  • 限界についても正直に述べる

7. まとめと実務での活用

感度分析を行うタイミング

感度分析は、因果推論のプロセスにおいて以下のタイミングで実施することが推奨されます。

特に重要なのは、主要な分析結果を得た後、論文執筆や意思決定に進む前に必ず実施することです。感度分析は「おまけ」ではなく、因果推論の標準的なプロセスの一部として位置づけるべきでしょう。

注意点と限界

感度分析を実施する際には、以下の点に注意が必要です。

感度分析は仮定の検証ではない

感度分析は「仮定が破れたらどうなるか」を調べるものであり、「仮定が正しいかどうか」を検証するものではありません。感度分析で頑健な結果が得られたとしても、それは「強い交絡があっても結論は変わらない」ことを示すだけで、「交絡がない」ことを証明するわけではないのです。

複数の交絡因子の存在

多くの感度分析手法は、単一の観測されない交絡因子を想定しています。しかし現実には、複数の観測されない要因が同時に存在する可能性があります。この場合、感度分析の結果は楽観的すぎる可能性があることに留意してください。

モデルの誤特定

感度分析は、基本的なモデルの関数形が正しいことを前提としています。モデル自体が誤っている場合、感度分析の結果も信頼できなくなります。

より深く学ぶためのリソース

感度分析についてさらに学びたい方には、以下のリソースをおすすめします。

書籍

  • Rosenbaum, P. R. (2002). "Observational Studies" - Rosenbaum境界の原典
  • Imbens, G. W., & Rubin, D. B. (2015). "Causal Inference for Statistics, Social, and Biomedical Sciences" - 包括的な因果推論の教科書

論文

  • VanderWeele, T. J., & Ding, P. (2017). "Sensitivity Analysis in Observational Research: Introducing the E-Value" - E値の提案論文
  • Cinelli, C., & Hazlett, C. (2020). "Making Sense of Sensitivity" - 感度分析の統一的な枠組み

Pythonパッケージ

  • sensemakr: R言語のパッケージだが、感度分析の包括的な実装
  • causalml: 機械学習を用いた因果推論のパッケージ(一部感度分析機能あり)

最後に

因果推論において、完璧に交絡を取り除くことは不可能に近いと言えます。しかし、感度分析を適切に実施することで、推定結果がどの程度信頼できるかを定量的に評価できます。

感度分析は、因果推論の結果を説得力のあるものにするための重要なツールです。自分の分析結果に自信を持つためにも、また他者を説得するためにも、ぜひ感度分析を分析プロセスに組み込んでいきましょう。

0
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?