活性化関数の役割
活性化関数は、ニューラルネットワークの各層で線形変換の結果に非線形性を加える関数です。もし活性化関数がなく、線形変換だけを何層も重ねた場合、全体としては一つの線形変換と同等になり、複雑な関係を表現しにくくなります。G検定では、シグモイド、ReLU、ソフトマックスなどの代表的な関数と用途を区別することが重要です。
正解の理由
選択肢1のネットワークに非線形性を加え、複雑な関数を表現しやすくするという説明が正しいです。ニューラルネットワークは、重み付き和とバイアスによる線形変換に、活性化関数を挟むことで、画像・音声・文章などの複雑なパターンを段階的に表現できます。
G検定で押さえるポイント
- シグモイドは0から1の範囲に出力するため、二値分類の確率表現で出てきます。
- ReLUは入力が正ならそのまま、負なら0にする関数で、勾配消失を緩和しやすく深層学習で広く使われます。
- ソフトマックスは多クラス分類の出力層で、各クラスの確率のような値を作るために使われます。
混同しやすい論点
- 活性化関数はデータ数を増やす仕組みではありません。データ拡張とは別の概念です。
- 重みを0に固定すると学習できません。活性化関数は重みを固定するためのものではありません。
- 欠損値処理は前処理の論点であり、活性化関数の主目的ではありません。
他の選択肢の評価
- 選択肢1が正解です。非線形性の付与が活性化関数の中心的役割です。
- 選択肢2は誤りです。学習データを増やすのはデータ拡張などの手法です。
- 選択肢3は誤りです。重みを0に固定すると表現力が失われ、通常は学習できません。
- 選択肢4は誤りです。欠損値除去は前処理であり、活性化関数の役割ではありません。
実務上の意味
実務では、活性化関数の選択が学習の安定性や表現力に影響します。中間層ではReLU系、二値分類の出力ではシグモイド、多クラス分類の出力ではソフトマックスという基本対応を押さえると、モデル構造やライブラリの出力を読み解きやすくなります。
G検定では、用語の丸暗記だけでなく「どの場面で使う概念か」「何と対比されるか」まで問われやすいです。正答を選んだ後に、誤答がなぜ成り立たないかを説明できる状態にしておくと、文章表現を変えた問題にも対応しやすくなります。G検定対策では、正解語だけでなく、反対概念、代表例、限界、現在の実務での使われ方を一緒に説明できる粒度まで確認しておくと安定します。また、問題文の時代背景や技術名を手がかりに、どのAIブーム・どの学習方式・どの限界の話かを切り分けてください。