正則化の目的
正則化は、モデルが複雑になりすぎることを抑え、過学習を軽減するための考え方です。学習データへの適合だけを追求すると、ノイズや偶然のパターンまで覚えてしまうことがあります。そこで、損失関数に重みの大きさへのペナルティを加えるなどして、より単純で汎化しやすいモデルを促します。G検定では、過学習対策として正則化を位置付けることが重要です。
正解の理由
選択肢1のモデルの複雑さを抑え、過学習を軽減するが正解です。代表例にはL1正則化、L2正則化、ドロップアウトなどがあります。L1正則化は一部の重みを0にしやすく特徴選択に近い効果を持ち、L2正則化は重みを全体的に小さく保つ効果があります。
G検定で押さえるポイント
- 正則化は、訓練データへの当てはまりとモデルの単純さのバランスを取るために使います。
- 正則化を強くしすぎると、過学習は抑えられても未学習になることがあります。
- 検証データを使って、正則化係数などのハイパーパラメータを調整します。
混同しやすい論点
- データ拡張も過学習対策ですが、正則化とは別の方法です。
- 正解ラベルを削除すると教師あり学習が成立しにくくなり、正則化とは言いません。
- 推論時に出力をランダムにすることは、通常の正則化の目的ではありません。ドロップアウトも推論時には無効化またはスケーリングされるのが一般的です。
他の選択肢の評価
- 選択肢1が正解です。正則化は過学習を軽減する代表的な手法です。
- 選択肢2は誤りです。ラベル削除は正則化ではなく、教師あり学習の前提を壊します。
- 選択肢3はデータ拡張のような話で、正則化の説明ではありません。
- 選択肢4は誤りです。推論出力をランダムに決めることが正則化の主目的ではありません。
実務上の意味
実務では、精度が訓練データだけで高いモデルより、運用データで安定するモデルが重要です。正則化は、少ないデータ、高次元特徴量、複雑なニューラルネットワークを扱うときに特に有効です。一方で、正則化を強めれば必ず良くなるわけではないため、検証指標と業務上の許容誤差を見ながら調整します。
G検定では、用語の丸暗記だけでなく「どの場面で使う概念か」「何と対比されるか」まで問われやすいです。正答を選んだ後に、誤答がなぜ成り立たないかを説明できる状態にしておくと、文章表現を変えた問題にも対応しやすくなります。G検定対策では、正解語だけでなく、反対概念、代表例、限界、現在の実務での使われ方を一緒に説明できる粒度まで確認しておくと安定します。また、問題文の時代背景や技術名を手がかりに、どのAIブーム・どの学習方式・どの限界の話かを切り分けてください。