多クラス分類とSoftmax
多クラス分類では、入力が複数のクラスのうちどれに属するかを予測します。ニューラルネットワークの出力層では、各クラスに対応するスコアを出し、それを確率のように解釈できる形に変換することがよくあります。この変換に使われる代表的な活性化関数がSoftmaxです。
正解の理由
Softmaxは、複数の実数スコアを0以上で合計1の値に変換します。したがって、各クラスに属する確率分布として扱いやすくなります。多クラス分類でクロスエントロピー損失と組み合わせて使われる典型的な関数であり、選択肢1が正解です。
他の選択肢の評価
- 選択肢2のReLUは主に中間層で使われる活性化関数です。負の値を0にし、正の値はそのまま通しますが、確率分布にはなりません。
- 選択肢3のtanhは出力を-1から1の範囲に収めます。RNNなどで使われてきましたが、多クラス確率分布を直接作る関数ではありません。
- 選択肢4の恒等関数は入力をそのまま出力します。回帰タスクでは自然ですが、クラス確率の合計を1にする機能はありません。
混同しやすい論点
- 二値分類ではSigmoid、多クラス単一ラベル分類ではSoftmaxが典型です。
- 複数ラベルが同時に正解になり得るマルチラベル分類では、各ラベルにSigmoidを使う設計もあります。
- Softmaxの出力は確率のように見えますが、モデルが常に正しい根拠を持つという意味ではありません。
実務では、確率の校正やしきい値設定も重要です。出力最大のクラスを選ぶだけでなく、信頼度が低い場合は人間確認に回す設計もあります。
試験対策の確認
ディープラーニングの問題では、層や関数の名前だけでなく、情報がどの向きに流れるか、どの量が学習されるか、どの量がハイパーパラメータかを区別することが重要です。実務では、活性化関数、出力層、損失関数、最適化手法、入力形状の組み合わせが崩れると学習や推論が成立しません。計算問題でも、式の各記号が何を表すかを確認しましょう。
追加の確認観点
選択肢を読む際は、層、活性化関数、損失関数、最適化、入力形状のどの要素を問われているかを切り分けてください。ディープラーニングでは、名称が似ていても役割が異なります。たとえばReLUは非線形性、Softmaxは多クラス確率、バックプロパゲーションは勾配計算、プーリングは空間サイズ縮小に関係します。実務では、形状計算や出力層の選択を誤ると学習が成立しません。G検定では、数式を丸暗記するだけでなく、どの問題を解くための部品かを説明できる状態を目標にしてください。