回帰分析編

回帰分析の基礎や評価指標についての知識を確認します

多重共線性 レベル1

多重回帰分析における多重共線性の問題について、最も正しい記述はどれか。

解説
解答と解説を表示
<p>多重回帰分析における多重共線性の問題に関する問題です。</p><p class='step'>1. 多重共線性の定義</p> <p>多重共線性(multicollinearity)とは、多重回帰分析において、説明変数間に強い相関関係がある状態を指します。完全な多重共線性がある場合、一部の説明変数は他の説明変数の線形結合として表現できます。</p><p class='step'>2. 多重共線性の影響</p> <p>多重共線性が存在すると、以下のような問題が生じる可能性があります:</p> <ul> <li>回帰係数の推定値が不安定になる(標準誤差が大きくなる)</li> <li>回帰係数の符号が予想と反対になることがある</li> <li>個々の説明変数の効果を分離して解釈することが難しくなる</li> <li>モデル全体の予測精度は必ずしも低下しないが、個々の説明変数の重要性の評価が困難になる</li> </ul><p class='step'>3. 多重共線性の検出方法</p> <p>多重共線性を検出するための主な方法には以下があります:</p> <ul> <li>相関行列:説明変数間の相関係数を確認する</li> <li>分散拡大要因(VIF: Variance Inflation Factor):各説明変数のVIFを計算し、一般的に10以上の値は多重共線性の存在を示唆する</li> <li>条件数(Condition Number):説明変数の相関行列の固有値の比率</li> <li>許容度(Tolerance):VIFの逆数(1/VIF)</li> </ul><p class='step'>4. 多重共線性への対処法</p> <p>多重共線性に対処するための主な方法には以下があります:</p> <ul> <li>相関の高い説明変数の一部を除外する</li> <li>主成分分析(PCA)などの次元削減技法を用いる</li> <li>リッジ回帰やLASSO回帰などの正則化手法を用いる</li> <li>説明変数を中心化する(平均を引く)</li> <li>より多くのデータを収集する(ただし、多重共線性が構造的な問題である場合は効果が限られる)</li> </ul><p class='step'>5. 選択肢の検討</p> <p>各選択肢について検討します:</p><ol> <li>「多重共線性は、応答変数と説明変数の間に強い相関がある場合に発生する」:誤りです。多重共線性は説明変数間の相関に関する問題であり、応答変数と説明変数の間の相関は多重共線性とは直接関係ありません。</li><li>「多重共線性は、説明変数間に強い負の相関がある場合に発生する」:誤りです。強い相関を持つ場合です。例えば、ある2つの説明変数がほぼ完全に相関している場合、これらの変数は互いに重複した情報を持っていることになります。</li><li>「多重共線性があると、回帰係数の推定値は不安定になるが、予測精度には影響しない」:正しいです。多重共線性は回帰係数の推定値を不安定にします。これにより、個々の回帰係数の値が信頼できなくなり、解釈が困難になります。予測精度とは、モデルが新しいデータに対してどれだけ正確に目的変数を予測できるかを示すものです。多重共線性があっても、モデル全体としては説明変数の線形結合によって目的変数を予測するため、予測性能は維持されることが一般的です。つまり、個々の回帰係数が不安定であっても、説明変数の組み合わせが目的変数を十分に説明できれば、予測精度は悪化しないのです。</li><li>「多重共線性の検出には、残差プロットが最も効果的である」:誤りです。残差プロットは主にモデルの仮定(線形性、等分散性など)を確認するためのものであり、多重共線性の検出には適していません。多重共線性の検出には、VIFや相関行列などが用いられます。</li><li>「多重共線性は、サンプルサイズを増やすことで解決できる」:誤りです。多重共線性は説明変数間の構造的な関係から生じるものであり、サンプルサイズを増やしても解決しない場合が多いです。むしろ、サンプルサイズが大きくなると、説明変数間の相関関係がより明確になり、多重共線性の問題が顕在化することもあります。</li> </ol><p class='note'>多重共線性と変数選択:</p> <p>多重共線性は変数選択の問題とも関連しています。多重共線性がある場合、どの説明変数を選択するかによって、モデルの解釈が大きく変わる可能性があります。変数選択の方法としては、以下のようなものがあります:</p> <ul> <li>前向き選択法(Forward Selection):説明変数を1つずつ追加していく</li> <li>後向き除去法(Backward Elimination):すべての説明変数から始めて、1つずつ除去していく</li> <li>ステップワイズ法(Stepwise Selection):前向き選択と後向き除去を組み合わせる</li> <li>情報量規準(AIC, BIC)に基づく選択</li> <li>正則化手法(リッジ回帰、LASSO回帰、Elastic Net)</li> </ul>
問題 1/10
カテゴリ一覧に戻る