ARMA(1,1)モデルの自己共分散構造:理論と計算
ARMAモデルの統合理論
自己回帰移動平均(ARMA)モデルは、AR成分とMA成分を組み合わせることで、複雑な時系列パターンを柔軟にモデル化できます。特にARMA(1,1)モデルは、多くの経済・金融時系列において優れた近似性能を示し、Box-Jenkins法における重要な基準モデルとなっています。
ARMA(1,1)モデルの数学的構造
Step 1: モデルの定義と基本性質
ARMA(1,1)モデルは以下のように定義されます:
$X_t = \phi X_{t-1} + \epsilon_t + \theta \epsilon_{t-1}$
ここで:
- $\phi = 0.6$:自己回帰係数($|\phi| < 1$で定常性確保)
- $\theta = 0.4$:移動平均係数
- $\epsilon_t \sim WN(0, 1)$:ホワイトノイズ過程
定常性と可逆性の確認:
ARMA(1,1)の安定性条件
- 定常性:$|\phi| = 0.6 < 1$ ✓(特性方程式 $1 - 0.6z = 0$ の根 $z = 1.67 > 1$)
- 可逆性:$|\theta| = 0.4 < 1$ ✓(MA特性方程式 $1 + 0.4z = 0$ の根 $z = -2.5$、$|z| > 1$)
- 識別性:ARとMA多項式に共通根なし ✓
理論的自己共分散関数の導出
Step 2: 一般理論の適用
無限MA表現による方法:
ARMA(1,1)モデルの無限MA表現は:
$X_t = \epsilon_t + \psi_1 \epsilon_{t-1} + \psi_2 \epsilon_{t-2} + \cdots = \sum_{j=0}^{\infty} \psi_j \epsilon_{t-j}$
$\psi$係数は以下の漸化式で求められます:
$\psi_0 = 1, \quad \psi_1 = \phi + \theta = 0.6 + 0.4 = 1.0$
$\psi_j = \phi \psi_{j-1} \quad \text{for } j \geq 2$
したがって:
- $\psi_2 = 0.6 \times 1.0 = 0.6$
- $\psi_3 = 0.6 \times 0.6 = 0.36$
- $\psi_j = 0.6^{j-1}$ for $j \geq 1$
分散と自己共分散の計算
Step 3: ラグ0(分散)の計算
無限MA表現より:
$\gamma(0) = \text{Var}(X_t) = \sigma^2 \sum_{j=0}^{\infty} \psi_j^2$
$= 1 \times \left[ 1 + 1^2 + \sum_{j=2}^{\infty} (0.6^{j-1})^2 \right]$
$= 1 + 1 + \sum_{j=2}^{\infty} 0.6^{2(j-1)} = 2 + \sum_{k=1}^{\infty} 0.36^k$
$= 2 + \frac{0.36}{1-0.36} = 2 + \frac{0.36}{0.64} = 2 + 0.5625 = 2.5625$
Step 4: ラグ1の自己共分散計算
ARMA(1,1)モデルの自己共分散関数は:
$\gamma(h) = \sigma^2 \sum_{j=0}^{\infty} \psi_j \psi_{j+h} \quad \text{for } h \geq 0$
$h=1$の場合:
$\gamma(1) = \sigma^2 \sum_{j=0}^{\infty} \psi_j \psi_{j+1}$
$= 1 \times \left[ \psi_0 \psi_1 + \psi_1 \psi_2 + \sum_{j=2}^{\infty} \psi_j \psi_{j+1} \right]$
$= 1 \times 1 + 1 \times 0.6 + \sum_{j=2}^{\infty} 0.6^{j-1} \times 0.6^j$
$= 1 + 0.6 + \sum_{j=2}^{\infty} 0.6^{2j-1}$
$= 1.6 + 0.6 \sum_{j=2}^{\infty} 0.36^{j-1} = 1.6 + 0.6 \sum_{k=1}^{\infty} 0.36^k$
$= 1.6 + 0.6 \times \frac{0.36}{1-0.36} = 1.6 + 0.6 \times 0.5625 = 1.6 + 0.3375 = 1.9375$
計算の検証
別解法として、ARMA(1,1)の直接的な自己共分散公式を使用:
$\gamma(0) = \frac{\sigma^2[1 + \theta^2 + 2\phi\theta]}{1 - \phi^2} = \frac{1[1 + 0.16 + 2 \times 0.6 \times 0.4]}{1 - 0.36} = \frac{1.64}{0.64} = 2.5625$ ✓
$\gamma(1) = \frac{\sigma^2[(1 + \theta\phi)(\phi + \theta)]}{1 - \phi^2} = \frac{1[(1 + 0.24)(1)]}{0.64} = \frac{1.24}{0.64} = 1.9375$ ✓
代替解法:Yule-Walker方程式
Step 5: 直接的方程式による検証
ARMA(1,1)モデル:$X_t = 0.6X_{t-1} + \epsilon_t + 0.4\epsilon_{t-1}$
両辺に$X_{t-1}$を乗じて期待値を取ると:
$\gamma(1) = 0.6\gamma(0) + E[\epsilon_t X_{t-1}] + 0.4E[\epsilon_{t-1} X_{t-1}]$
ここで:
- $E[\epsilon_t X_{t-1}] = 0$(ホワイトノイズの性質)
- $E[\epsilon_{t-1} X_{t-1}] = E[\epsilon_{t-1}(0.6X_{t-2} + \epsilon_{t-1} + 0.4\epsilon_{t-2})] = \sigma^2$
したがって:
$\gamma(1) = 0.6 \times 2.5625 + 0.4 \times 1 = 1.5375 + 0.4 = 1.9375$
解釈と応用
Step 6: 自己共分散の実務的意味
1. 系列相関の強さ:
$\rho(1) = \frac{\gamma(1)}{\gamma(0)} = \frac{1.9375}{2.5625} = 0.756$
これは、隣接する観測値間に強い正の相関があることを示します。
2. ARMAモデルの記憶特性:
- AR成分:長期記憶を提供($\phi^h$で指数減衰)
- MA成分:短期ショックの影響(1期間のみ)
- 組み合わせ効果:両方の特性を併せ持つ柔軟性
| ラグ$h$ | 理論値 | 自己相関$\rho(h)$ | 解釈 |
|---|
| 0 | 2.5625 | 1.000 | 完全相関 |
| 1 | 1.9375 | 0.756 | 強い正相関 |
| 2 | 1.163 | 0.454 | 中程度の相関 |
| $h \geq 2$ | $\gamma(1) \times 0.6^{h-1}$ | 指数減衰 | AR特性 |
高次ラグの自己共分散
Step 7: 一般的なパターン
$h \geq 2$に対して、ARMA(1,1)モデルの自己共分散はAR(1)と同様の漸化式に従います:
$\gamma(h) = \phi \gamma(h-1) = 0.6 \gamma(h-1)$
したがって:
$\gamma(h) = \gamma(1) \times \phi^{h-1} = 1.9375 \times 0.6^{h-1} \quad \text{for } h \geq 1$