CNNの基本構造
CNN(畳み込みニューラルネットワーク)は、画像のような格子状データから局所的なパターンを効率よく抽出するためのネットワークです。畳み込み層では、小さなフィルタを画像全体にスライドさせ、エッジ、角、テクスチャなどの特徴を検出します。
正解の理由
選択肢1は、局所受容野と重み共有により画像の空間的特徴を効率よく抽出すると述べています。局所受容野とは、フィルタが一度に見る狭い範囲のことです。重み共有とは、同じフィルタを画像上のさまざまな位置に適用することです。これにより、全結合層に比べてパラメータ数を抑えつつ、位置が少しずれても似た特徴を検出しやすくなります。
他の選択肢の評価
- 選択肢2は誤りです。CNNは画像認識で非常に広く使われ、時系列や音声にも応用されることがあります。
- 選択肢3はセマンティックセグメンテーションのような画素単位分類を連想させますが、CNNが必ず全画素を独立クラスとして出力するわけではありません。
- 選択肢4は誤りです。畳み込み層のパラメータ数は主にフィルタサイズ、入力チャネル数、出力チャネル数で決まり、入力画像の幅と高さには直接比例しません。
頻出ポイント
- 畳み込み: 局所特徴を抽出する。
- プーリング: 空間サイズを縮小し、位置ずれに頑健にする。
- パディング: 端の情報や出力サイズを調整する。
- ストライド: フィルタを動かす間隔を決める。
実務では、画像分類、物体検出、異常検知などで使われます。
試験対策の確認
ディープラーニングの問題では、層や関数の名前だけでなく、情報がどの向きに流れるか、どの量が学習されるか、どの量がハイパーパラメータかを区別することが重要です。実務では、活性化関数、出力層、損失関数、最適化手法、入力形状の組み合わせが崩れると学習や推論が成立しません。計算問題でも、式の各記号が何を表すかを確認しましょう。
追加の確認観点
選択肢を読む際は、層、活性化関数、損失関数、最適化、入力形状のどの要素を問われているかを切り分けてください。ディープラーニングでは、名称が似ていても役割が異なります。たとえばReLUは非線形性、Softmaxは多クラス確率、バックプロパゲーションは勾配計算、プーリングは空間サイズ縮小に関係します。実務では、形状計算や出力層の選択を誤ると学習が成立しません。G検定では、数式を丸暗記するだけでなく、どの問題を解くための部品かを説明できる状態を目標にしてください。