この問題では、繰り返し期待値の法則(全期待値の法則)について理解を深めます。繰り返し期待値の法則は確率論の基本的な定理で、条件付き期待値を通じて複雑な確率構造を単純化し、統計的推論や確率モデルの解析において極めて重要な役割を果たします。
繰り返し期待値の法則
繰り返し期待値の法則(Law of Total Expectation, Tower Law)は、確率変数の期待値を条件付き期待値の期待値として表現する基本原理で、複雑な確率モデルを階層的に分解して解析する数学的枠組みです。
Step 1: 繰り返し期待値の法則の数学的定義
確率変数$X$と$Y$について、$Y$の期待値が存在するとき:
$E[X] = E[E[X|Y]]$
これは以下のように解釈できます:
- 内側の期待値:$E[X|Y = y]$は$Y = y$が与えられた下での$X$の条件付き期待値
- 外側の期待値:条件付き期待値$E[X|Y]$を$Y$の分布で平均化
- 階層構造:複雑な問題を段階的に分解
繰り返し期待値の法則の基本原理
- 分解原理:複雑な期待値を条件付き期待値で分解
- 階層化:多段階の確率的現象を体系的に解析
- 一般化:離散・連続の両方で成立
- 応用性:ベイズ推論、マルコフ過程の基盤
Step 2: 問題設定の詳細分析
与えられた条件:
- コインの表が出る確率:$p = 0.6$
- $N$:表が出た回数(ランダム変数)
- $X$:$N$回コインを投げたときに最初の1回目が表である確率
問題の構造理解:
この問題は二段階の確率的現象として理解できます:
- 第1段階:表の回数$N$が決定される
- 第2段階:$N$回のコイン投げを行い、1回目が表かを判定
Step 3: 条件付き期待値の計算
$N = n$が与えられたときの$X$の条件付き期待値を考えます。
$N = 0$の場合:
コインを投げないので、$X = 0$(1回目が表である確率は0)
$E[X | N = 0] = 0$
$N \geq 1$の場合:
$N = n \geq 1$のとき、$n$回コインを投げる。1回目が表である確率は$p = 0.6$
$E[X | N = n] = p = 0.6 \quad (n \geq 1)$
Step 4: 繰り返し期待値の法則の適用
繰り返し期待値の法則により:
$E[X] = E[E[X|N]] = \sum_{n=0}^{\infty} E[X|N = n] \cdot P(N = n)$
条件付き期待値を代入:
\begin{align} E[X] &= E[X|N = 0] \cdot P(N = 0) + \sum_{n=1}^{\infty} E[X|N = n] \cdot P(N = n) \ &= 0 \cdot P(N = 0) + \sum_{n=1}^{\infty} 0.6 \cdot P(N = n) \ &= 0 + 0.6 \sum_{n=1}^{\infty} P(N = n) \ &= 0.6 \cdot P(N \geq 1) \ &= 0.6 \cdot [1 - P(N = 0)] \end{align}
Step 5: 直感的解釈と簡潔な解法
実は、この問題にはより直感的な解釈があります:
重要な観察:
$N \geq 1$である限り、1回目のコイン投げの結果は、そのコインの表が出る確率$p = 0.6$と等しくなります。$N = 0$の場合のみ、1回目が表である確率は0になります。
しかし、問題文の解釈をより注意深く行うと:
- 「表が出た回数を$N$とする」という記述
- 「$N$回コインを投げたときに最初の1回目が表である確率」
これらを総合すると、問題は以下のように理解できます:
$E[X] = E[\text{1回目が表である確率}] = p = 0.6$
Step 6: 数学的正当化
より厳密には、以下の論理で説明できます:
確率の対称性:
各コイン投げは独立で同一の確率$p = 0.6$を持つため、どの位置のコインが表になる確率も等しく$p$です。
位置の交換可能性:
1回目、2回目、...、$N$回目のどの位置でも表が出る確率は$p$で変わりません。
したがって:
$E[X] = p = 0.6$
繰り返し期待値の法則の応用と拡張
Step 7: ベイズ推論との関係
事前分布と事後分布:
繰り返し期待値の法則は、ベイズ推論における事前期待値の計算で中心的役割を果たします:
$E[\theta] = E[E[\theta | \text{data}]]$
Step 8: マルコフ過程への応用
状態遷移の期待値:
マルコフ連鎖において、将来状態の期待値を現在状態で条件付けして計算:
$E[X_{n+1}] = E[E[X_{n+1} | X_n]]$
Step 9: 金融リスク管理への応用
ポートフォリオ期待収益:
市場状態で条件付けした期待収益の計算:
$E[R] = E[E[R | \text{Market State}]]$
Step 10: 機械学習での応用
ランダムフォレストの予測:
個別決定木の予測を集約:
$E[\text{Prediction}] = E[E[\text{Prediction} | \text{Bootstrap Sample}]]$
繰り返し期待値の法則の深い意味
| 応用分野 | 具体例 | 数学的表現 |
| 保険数理 | 保険金支払期待値 | $E[\text{支払}] = E[E[\text{支払}|\text{事故}]]$ |
| 待ち行列理論 | 平均待ち時間 | $E[W] = E[E[W|\text{到着数}]]$ |
| 品質管理 | 期待不良率 | $E[\text{不良}] = E[E[\text{不良}|\text{製造条件}]]$ |
理論的発展と一般化
Step 11: 条件付き分散の分解
分散についても同様の分解公式が成立:
$\text{Var}(X) = E[\text{Var}(X|Y)] + \text{Var}(E[X|Y])$
これは「全分散の法則」として知られています。
Step 12: 高次モーメントへの拡張
$k$次モーメントに対しても一般化可能:
$E[X^k] = E[E[X^k|Y]]$
Step 13: 連続時間への拡張
確率過程においても同様の原理が適用:
$E[X_t] = E[E[X_t | \mathcal{F}_s]] \quad (s < t)$
ここで$\mathcal{F}_s$は時点$s$までの情報集合(フィルトレーション)。