プーリング層の役割
プーリング層は、CNNの特徴マップに対して局所領域の代表値を取り、空間サイズを小さくする処理です。代表例はMax PoolingとAverage Poolingです。Max Poolingは領域内の最大値を取り、特徴が存在するかどうかを強く残しやすい方法です。
正解の理由
選択肢1は、特徴マップの空間サイズを小さくし、位置ずれへの頑健性を高めると説明しています。プーリングにより、近い位置にある特徴の細かなずれが出力に与える影響を小さくできます。また、特徴マップの高さ・幅が小さくなるため、後続層の計算量やメモリ使用量を減らす効果もあります。
他の選択肢の評価
- 選択肢2は誤りです。正解ラベルを自動生成する処理ではありません。ラベル作成はデータ準備やアノテーションの領域です。
- 選択肢3も誤りです。プーリングは微分可能性に注意が必要な部分はありますが、損失関数を微分不能にすることが目的ではありません。
- 選択肢4は誤りです。入力チャネル数を必ず1にするわけではありません。プーリングは通常、各チャネルごとに空間方向へ適用されます。
混同しやすい論点
- 畳み込み層は学習する重みを持ちますが、一般的なプーリング層は学習パラメータを持ちません。
- ストライド付き畳み込みでもダウンサンプリングは可能です。
- プーリングを使いすぎると空間情報が失われ、細かな位置が重要なタスクで不利になる場合があります。
G検定では「サイズ縮小」「計算量削減」「位置ずれへの頑健性」をセットで覚えるとよいです。
試験対策の確認
ディープラーニングの問題では、層や関数の名前だけでなく、情報がどの向きに流れるか、どの量が学習されるか、どの量がハイパーパラメータかを区別することが重要です。実務では、活性化関数、出力層、損失関数、最適化手法、入力形状の組み合わせが崩れると学習や推論が成立しません。計算問題でも、式の各記号が何を表すかを確認しましょう。
追加の確認観点
選択肢を読む際は、層、活性化関数、損失関数、最適化、入力形状のどの要素を問われているかを切り分けてください。ディープラーニングでは、名称が似ていても役割が異なります。たとえばReLUは非線形性、Softmaxは多クラス確率、バックプロパゲーションは勾配計算、プーリングは空間サイズ縮小に関係します。実務では、形状計算や出力層の選択を誤ると学習が成立しません。G検定では、数式を丸暗記するだけでなく、どの問題を解くための部品かを説明できる状態を目標にしてください。