機械学習における対数の用途
対数は、積を和に変換できる性質を持つため、確率モデルや損失関数でよく使われます。機械学習では、尤度の積を対数尤度の和として扱う、交差エントロピー損失を定義する、非常に小さい確率値の計算を安定させる、といった場面で登場します。G検定では、対数の細かな計算よりも、なぜ確率や損失で使われるかを理解することが重要です。
正解の理由
選択肢1の尤度の積を扱いやすい和に変換する、交差エントロピーを表すなどの場面が正解です。複数データの同時確率は積で表されることが多いですが、積のままだと計算が不安定になりやすく、最適化もしにくいです。対数を取ると積が和になり、最大化や微分が扱いやすくなります。
G検定で押さえるポイント
- log(ab)=log(a)+log(b) の性質により、確率の積を和として扱えます。
- 対数尤度を最大化することは、元の尤度を最大化することと同じ解を与えます。対数は単調増加関数だからです。
- 交差エントロピーでは、正解クラスに高い確率を割り当てるほど損失が小さくなります。
混同しやすい論点
- 画像の画素数を半分にする処理はリサイズやプーリングで、対数の用途ではありません。
- カテゴリ変数を削除するためだけに対数を使うわけではありません。カテゴリ変数にはエンコーディングが必要です。
- 確率値に対数を取ると、0から1の範囲では0以下の値になります。常に1より大きくする処理ではありません。
他の選択肢の評価
- 選択肢1が正解です。対数は尤度や交差エントロピーで重要です。
- 選択肢2は画像処理のリサイズやプーリングの説明です。
- 選択肢3はカテゴリ変数処理の説明としても不正確で、対数の用途ではありません。
- 選択肢4は誤りです。0から1の確率の対数は通常0以下になります。
実務上の意味
実務では、分類モデルの学習ログに cross entropy や log loss が表示されます。これは対数を使った損失であり、正解に低い確率を割り当てると大きなペナルティになります。対数の役割を理解していると、損失値の意味や確率出力の改善方向を説明しやすくなります。
G検定では、用語の丸暗記だけでなく「どの場面で使う概念か」「何と対比されるか」まで問われやすいです。正答を選んだ後に、誤答がなぜ成り立たないかを説明できる状態にしておくと、文章表現を変えた問題にも対応しやすくなります。G検定対策では、正解語だけでなく、反対概念、代表例、限界、現在の実務での使われ方を一緒に説明できる粒度まで確認しておくと安定します。また、問題文の時代背景や技術名を手がかりに、どのAIブーム・どの学習方式・どの限界の話かを切り分けてください。