誤差逆伝播法の役割
誤差逆伝播法(バックプロパゲーション)は、ニューラルネットワークの各パラメータが損失にどの程度影響したかを、連鎖律に基づいて効率よく計算する方法です。順伝播で予測値と損失を求め、逆伝播で勾配を計算し、その勾配を使って重みを更新します。
正解の理由
選択肢1は、損失の勾配を出力側から入力側へ効率よく計算し、重み更新に使う方法と説明しています。これはバックプロパゲーションの定義です。深いネットワークではパラメータが非常に多いため、各重みを個別に試すのではなく、計算グラフ上で勾配を再利用しながら求めることが重要です。
他の選択肢の評価
- 選択肢2はアノテーションやラベル付けの説明です。教師あり学習のデータ準備には関係しますが、バックプロパゲーションではありません。
- 選択肢3は画像前処理の説明です。白黒化はタスクによって行うことがありますが、勾配計算とは無関係です。
- 選択肢4は推論高速化の説明に近く、学習に関係しないとする点が誤りです。バックプロパゲーションは主に学習時に使われます。
G検定向けポイント
- 順伝播: 入力から出力へ計算し、予測と損失を出す。
- 逆伝播: 出力側から入力側へ勾配を伝える。
- 最適化手法: SGD、Momentum、Adamなどが勾配を使って重みを更新する。
実務では、勾配消失・勾配爆発、学習率の設定、バッチサイズが学習安定性に大きく影響します。
試験対策の確認
ディープラーニングの問題では、層や関数の名前だけでなく、情報がどの向きに流れるか、どの量が学習されるか、どの量がハイパーパラメータかを区別することが重要です。実務では、活性化関数、出力層、損失関数、最適化手法、入力形状の組み合わせが崩れると学習や推論が成立しません。計算問題でも、式の各記号が何を表すかを確認しましょう。
追加の確認観点
選択肢を読む際は、層、活性化関数、損失関数、最適化、入力形状のどの要素を問われているかを切り分けてください。ディープラーニングでは、名称が似ていても役割が異なります。たとえばReLUは非線形性、Softmaxは多クラス確率、バックプロパゲーションは勾配計算、プーリングは空間サイズ縮小に関係します。実務では、形状計算や出力層の選択を誤ると学習が成立しません。G検定では、数式を丸暗記するだけでなく、どの問題を解くための部品かを説明できる状態を目標にしてください。