確率変数の独立性を確認する問題です。
1. 確率変数の独立性の定義
2つの確率変数 $X$ と $Y$ が独立であるとは、一方の確率変数の値が他方の確率変数の確率分布に影響を与えないことを意味します。数学的には、以下の条件が成り立つときに、確率変数 $X$ と $Y$ は独立であると定義されます:
$P(X \in A, Y \in B) = P(X \in A) \times P(Y \in B)$
ここで、$A$ と $B$ はそれぞれ $X$ と $Y$ の取り得る値の任意の集合です。
2. 期待値を用いた独立性の判定
確率変数 $X$ と $Y$ が独立であるための必要十分条件の一つは、以下の等式が成り立つことです:
$E(XY) = E(X) \times E(Y)$
この条件は、$X$ と $Y$ の共分散が0であることと同値です:
$Cov(X, Y) = E(XY) - E(X)E(Y) = 0$
3. 独立性の確認
問題で与えられた情報:
- $E(X) = 2$
- $E(Y) = 3$
- $E(XY) = 6$
独立性の条件を確認するために、$E(X) \times E(Y)$ を計算します:
$E(X) \times E(Y) = 2 \times 3 = 6$
次に、この値と $E(XY)$ を比較します:
$E(XY) = 6$
$E(X) \times E(Y) = 6$
両者が等しいので、$E(XY) = E(X) \times E(Y)$ が成り立ちます。したがって、確率変数 $X$ と $Y$ は独立です。
共分散を計算すると:
$Cov(X, Y) = E(XY) - E(X)E(Y) = 6 - 6 = 0$
共分散が0なので、$X$ と $Y$ は無相関です。独立な確率変数は常に無相関ですが、無相関な確率変数が必ずしも独立であるとは限りません。ただし、二変量正規分布の場合は、無相関と独立は同値です。
確率変数の独立性と無相関性の違い:
- 独立:$X$ の値が $Y$ の確率分布に影響を与えない(およびその逆)
- 無相関:$X$ と $Y$ の間に線形関係がない(共分散が0)
独立な確率変数は常に無相関ですが、無相関な確率変数が必ずしも独立であるとは限りません。例えば、$X$ が標準正規分布に従い、$Y = X^2$ とすると、$X$ と $Y$ は無相関ですが独立ではありません。
ただし、多変量正規分布に従う確率変数の場合は、無相関と独立は同値です。
したがって、与えられた情報から、$E(X) \times E(Y) = 6$ です。今回の状況から$X$ と$Y$は独立である可能性があります。ただし、$E[XY] = E[X]E[Y] $は独立であるための十分条件ではありません。