回帰分析編

回帰分析の基礎や評価指標についての知識を確認します

変数選択基準 レベル1

重回帰分析における変数選択基準の一つであるAIC(赤池情報量規準)について、正しい記述はどれか。

解説
解答と解説を表示
<p>変数選択基準であるAIC(赤池情報量規準)の理解を問う問題です。</p> <p class='key-point'>AICは、モデルの複雑さと当てはまりの良さのバランスを評価し、より予測に適したモデルを選択するための指標です。</p> <p class='step'>1. AIC(赤池情報量規準)とは</p> <p>AIC (Akaike's Information Criterion) は、統計モデルの良さを評価するための指標の一つです。モデルがデータにどれだけよく適合しているか(当てはまりの良さ)と、モデルの複雑さ(パラメータの数)のバランスを考慮します。AICの値が小さいほど、より良いモデルであると評価されます。</p> <p class='formula'>$AIC = -2 \times (最大対数尤度) + 2 \times (パラメータ数)
lt;/p> <p>第一項はモデルの当てはまりの良さを示し、当てはまりが良いほどこの項は小さくなります。第二項はモデルの複雑さに対するペナルティであり、パラメータ数が多いほどこの項は大きくなります。</p> <p class='step'>2. AICの利用目的</p> <p>AICは主に以下の目的で利用されます。</p> <ul> <li><strong>モデル選択</strong>:複数の候補モデルの中から、最も良いとされるモデルを選択する。AICが最小となるモデルが、予測の観点から最も良いモデルとされます。</li> <li><strong>過剰適合(オーバーフィッティング)の抑制</strong>:不必要に複雑なモデルを選択することを避けるのに役立ちます。</li> </ul> <p class='step'>3. 他の選択肢の検討</p> <ul> <li>「AICの値が大きいほど、モデルの当てはまりが良いとされる。」:誤りです。AICの値が<strong>小さい</strong>ほど良いモデルとされます。</li> <li>「AICは、モデルの複雑さ(パラメータ数)に対してペナルティを課さない。」:誤りです。AICの定義式に含まれる第二項が、パラメータ数に応じたペナルティです。</li> <li>「AICが最小となるモデルが、常に真のモデルと一致する。」:誤りです。AICはあくまで情報量基準の一つであり、最小AICモデルが真のモデルと一致する保証はありません。しかし、予測の観点からは良いモデルと期待されます。</li> <li>「AICは、説明変数間の多重共線性の問題を解決するために用いられる。」:誤りです。AICは変数選択の指標であり、多重共線性の問題を直接解決するものではありません。多重共線性の対処にはVIFの確認やリッジ回帰などの手法があります。</li> </ul> <p class='note'>関連する情報量規準</p> <ul> <li><strong>BIC (Bayesian Information Criterion)</strong>:AICと同様にモデル選択に用いられますが、AICよりもパラメータ数に対するペナルティが大きくなる傾向があり、よりシンプルなモデルを選択しやすいです。</li> <li><strong>Adjusted R-squared (自由度調整済み決定係数)</strong>:説明変数の数を考慮した決定係数で、これもモデル選択に利用されます。</li> </ul> <p>したがって、AICについて正しい記述は「AICは、モデルの予測精度を評価するために用いられ、値が小さいほど良いモデルとされる。」です。</p>
問題 1/10
カテゴリ一覧に戻る