多重比較問題の数学的定式化
複数の仮説検定$H_{0i}$ $(i = 1, 2, \ldots, m)$を同時に行うとき、全体としての第1種の誤りの確率(FWER: Family-wise Error Rate)が個々の検定の有意水準より大きくなる問題です。
$\text{FWER} = P\left(\bigcup_{i=1}^m \{H_{0i}\text{が真なのに棄却される}\}\right)$
多重比較問題の理論的背景
Step 1: 独立な検定の場合
$m$個の独立な検定を各々有意水準$\alpha$で行う場合:
$\text{FWER} = P\left(\bigcup_{i=1}^m A_i\right) = 1 - P\left(\bigcap_{i=1}^m A_i^c\right) = 1 - \prod_{i=1}^m (1-\alpha) = 1 - (1-\alpha)^m$
ここで$A_i$は「$i$番目の検定で第1種の誤りが生じる事象」です。
Step 2: FWERの増大
$m$が増加するとFWERは急激に増大:
| 検定数 $m$ | 個別有意水準 $\alpha = 0.05$ | FWER |
|---|
| 1 | 0.05 | 0.050 |
| 5 | 0.05 | 0.226 |
| 10 | 0.05 | 0.401 |
| 20 | 0.05 | 0.642 |
ボンフェローニ補正の数学的原理
Step 3: ボンフェローニの不等式
任意の事象$A_1, A_2, \ldots, A_m$に対して:
$P\left(\bigcup_{i=1}^m A_i\right) \leq \sum_{i=1}^m P(A_i)$
Step 4: ボンフェローニ補正の適用
各検定の有意水準を$\alpha/m$に設定すると:
$\text{FWER} \leq \sum_{i=1}^m \frac{\alpha}{m} = m \times \frac{\alpha}{m} = \alpha$
これにより全体のFWERを$\alpha$以下に制御できます。
他の多重比較補正法との比較
多重比較補正法の分類
FWER制御法:
- ボンフェローニ法:保守的だが単純
- ホルム法:ボンフェローニより強力
- シダック法:独立性仮定下で正確
- Tukey法:全ペア比較に特化
FDR制御法:
- Benjamini-Hochberg法:探索的研究に適用
- Benjamini-Yekutieli法:依存性に頑健
ボンフェローニ補正の特性
Step 5: 保守性と検出力の関係
ボンフェローニ補正は保守的(conservative)であり:
$\text{実際のFWER} \leq \alpha$
特に検定間に正の相関がある場合、実際のFWERは$\alpha$より大幅に小さくなり、検出力が低下します。
Step 6: 適用場面の選択
| 研究の性質 | 推奨補正法 | 理由 |
|---|
| 確認的研究 | FWER制御 | 厳格な誤り制御 |
| 探索的研究 | FDR制御 | 発見の機会を重視 |
| 計画的比較 | 補正なし | 事前仮説に基づく |
| 事後比較 | Tukey/Scheffe | 全比較を考慮 |
したがって、ボンフェローニ補正を適用する理由は「第1種の誤りの確率を制御するため」です。