線形混合効果モデルとグループ内相関係数
線形混合効果モデル(Linear Mixed-Effects Model)は、固定効果とランダム効果を組み合わせたモデルで、階層データや縦断データの解析に用いられます。
線形混合効果モデルの基本構造
一般的な線形混合効果モデル:
$$y_{ij} = \\mathbf{x}_{ij}^T \\boldsymbol{\\beta} + \\mathbf{z}_{ij}^T \\mathbf{u}_i + \\varepsilon_{ij}$$
ここで:
- $y_{ij}$:グループ$i$の個体$j$の応答変数
- $\\boldsymbol{\\beta}$:固定効果パラメータ
- $\\mathbf{u}_i$:グループ$i$のランダム効果
- $\\varepsilon_{ij}$:個体レベルの誤差項
Step 1: 単純な混合効果モデル
問題で与えられたモデル:
$$y_{ij} = \\beta_0 + \\beta_1 x_{ij} + u_i + \\varepsilon_{ij}$$
このモデルの構成要素:
- $\\beta_0 + \\beta_1 x_{ij}$:固定効果(全グループ共通)
- $u_i$:グループ固有のランダム切片
- $\\varepsilon_{ij}$:個体固有の誤差項
Step 2: 分散成分の仮定
ランダム効果と誤差項の分布:
$$u_i \\sim N(0, \\sigma_u^2) \\quad \\text{(グループ間分散)}$$
$$\\varepsilon_{ij} \\sim N(0, \\sigma_e^2) \\quad \\text{(グループ内分散)}$$
独立性の仮定:
- $u_i$ と $\\varepsilon_{ij}$ は独立
- 異なるグループの $u_i$ は独立
- 同一グループ内の $\\varepsilon_{ij}$ は独立
Step 3: 応答変数の分散分解
応答変数 $y_{ij}$ の分散:
$$\\text{Var}(y_{ij}) = \\text{Var}(\\beta_0 + \\beta_1 x_{ij} + u_i + \\varepsilon_{ij})$$
固定効果は定数なので:
$$\\text{Var}(y_{ij}) = \\text{Var}(u_i) + \\text{Var}(\\varepsilon_{ij}) = \\sigma_u^2 + \\sigma_e^2$$
これは全分散を表します。
Step 4: 同一グループ内の共分散
同一グループ$i$内の2つの観測値 $y_{ij}$ と $y_{ik}$ の共分散:
$$\\text{Cov}(y_{ij}, y_{ik}) = \\text{Cov}(u_i + \\varepsilon_{ij}, u_i + \\varepsilon_{ik})$$
$$= \\text{Cov}(u_i, u_i) + \\text{Cov}(u_i, \\varepsilon_{ik}) + \\text{Cov}(\\varepsilon_{ij}, u_i) + \\text{Cov}(\\varepsilon_{ij}, \\varepsilon_{ik})$$
独立性の仮定により:
$$\\text{Cov}(y_{ij}, y_{ik}) = \\text{Var}(u_i) = \\sigma_u^2$$
グループ内相関係数の定義
グループ内相関係数(Intraclass Correlation Coefficient, ICC):
$$\\rho = \\frac{\\text{Cov}(y_{ij}, y_{ik})}{\\sqrt{\\text{Var}(y_{ij}) \\cdot \\text{Var}(y_{ik})}} = \\frac{\\sigma_u^2}{\\sigma_u^2 + \\sigma_e^2}$$
これはグループ間分散が全分散に占める割合を表します。
Step 5: ICCの解釈
ICC = $\\frac{\\sigma_u^2}{\\sigma_u^2 + \\sigma_e^2}$ の意味:
- $\\rho = 0$:グループ効果なし($\\sigma_u^2 = 0$)
- $\\rho = 1$:グループ内で完全に相関($\\sigma_e^2 = 0$)
- $0 < \\rho < 1$:グループ効果が存在
実際の解釈:
- 医学研究:同一患者の複数測定間の相関
- 教育研究:同一学級の生徒間の相関
- 組織研究:同一部署の従業員間の相関
Step 6: 分散成分推定
混合効果モデルの推定手法
- 制限最尤推定(REML):分散成分の不偏推定
- 最尤推定(ML):モデル比較に適用
- ベイズ推定:事前分布を考慮した推定
REML推定では以下を最適化:
$$\\ell_{REML}(\\boldsymbol{\\theta}) = -\\frac{1}{2}\\left[\\log|\\mathbf{V}| + \\log|\\mathbf{X}^T\\mathbf{V}^{-1}\\mathbf{X}| + \\mathbf{r}^T\\mathbf{P}\\mathbf{r}\\right]$$
ここで $\\mathbf{V} = \\sigma_u^2 \\mathbf{Z}\\mathbf{Z}^T + \\sigma_e^2 \\mathbf{I}$ は分散共分散行列
Step 7: モデル拡張
1. ランダム傾きモデル
$$y_{ij} = (\\beta_0 + u_{0i}) + (\\beta_1 + u_{1i})x_{ij} + \\varepsilon_{ij}$$
ここで $\\begin{pmatrix} u_{0i} \\\\ u_{1i} \\end{pmatrix} \\sim N\\left(\\mathbf{0}, \\begin{pmatrix} \\sigma_{u0}^2 & \\sigma_{u01} \\\\ \\sigma_{u01} & \\sigma_{u1}^2 \\end{pmatrix}\\right)$
2. 非線形混合効果モデル
$$y_{ij} = f(x_{ij}, \\boldsymbol{\\beta}, \\mathbf{u}_i) + \\varepsilon_{ij}$$
3. 一般化線形混合モデル(GLMM)
$$g(\\mu_{ij}) = \\mathbf{x}_{ij}^T \\boldsymbol{\\beta} + \\mathbf{z}_{ij}^T \\mathbf{u}_i$$
Step 8: 実装と診断
混合効果モデルの診断
- ランダム効果の正規性:QQプロット、Shapiro-Wilk検定
- 残差の独立性:自己相関プロット、Durbin-Watson検定
- 分散の均質性:残差プロット、Levene検定
- モデル選択:AIC、BIC、尤度比検定