正則化の目的
正則化は、モデルが複雑になりすぎることを抑え、過学習を軽減するための方法です。一般に、訓練誤差だけを小さくしようとすると、モデルは訓練データのノイズまで拾いやすくなります。そこで損失関数に重みの大きさなどへのペナルティを加え、過度に複雑な解を避けます。
正解の理由
選択肢1は、正則化がモデルの複雑さを抑え、汎化性能を高めるために使われることを正しく述べています。代表例にはL1正則化とL2正則化があります。L1は不要な重みを0に近づけやすく、特徴選択的な効果を持つ場合があります。L2は大きな重みをなめらかに抑え、極端なパラメータを避ける効果があります。
他の選択肢の評価
- 選択肢2は誤りです。正則化は訓練誤差を0にするためではなく、むしろ訓練誤差だけの最小化を抑制します。
- 選択肢3は教師なしで目的変数を作るという説明で、正則化とは関係ありません。
- 選択肢4は評価指標の選択の話です。正則化は学習時の目的関数やモデル複雑度の制御に関する概念です。
覚えるべき比較軸
- L1正則化: スパース化、特徴選択と関連。
- L2正則化: 重み減衰、極端な重みの抑制。
- Dropout: ニューラルネットワークで一部ユニットを無効化して過学習を抑える手法。
実務では、正則化の強さを大きくしすぎると学習不足になるため、検証データで調整します。
試験対策の確認
この論点では、用語の暗記だけでなく「どの入力を使い、何を予測し、どの指標で評価するか」を対応づけることが重要です。実務では、データ分割、前処理、評価指標の選択を誤ると、訓練時に良く見えるモデルでも本番で役に立たないことがあります。選択肢を読むときは、教師あり・教師なし・強化学習、分類・回帰、前処理・評価・モデル構造のどの話かを切り分けて判断しましょう。
追加の確認観点
選択肢を解くときは、まず問題が「学習方法」「タスク種別」「評価指標」「前処理」「モデルの性質」のどれを問うているかを分けてください。機械学習では、同じ用語でも目的変数の有無、正解ラベルの有無、データ分割の方法によって意味が変わります。実務では、モデルを選ぶ前に、予測したい値、利用できる特徴量、誤判定のコスト、説明責任の必要性を整理します。G検定では、名称を覚えるだけでなく、どの場面で使い、どの失敗を避けるための考え方かまで結びつけると安定して判断できます。