シグモイド関数の出力範囲
シグモイド関数は、任意の実数入力を0から1の範囲に滑らかに変換するS字型の関数です。ニューラルネットワークでは、二値分類の出力層で「正例である確率」のように解釈するためによく使われます。G検定では、シグモイド、tanh、ReLU、ソフトマックスの出力範囲と用途を混同しないことが大切です。
正解の理由
選択肢2の常に0から1の範囲に収まるが正解です。シグモイド関数は入力が大きく正なら1に近づき、大きく負なら0に近づきます。ただし、厳密には0や1そのものには達せず、0より大きく1より小さい値を返します。この性質により確率のように扱いやすくなります。
G検定で押さえるポイント
- 式は代表的に 1 / (1 + exp(-x)) と表されます。細かい式よりも出力範囲と用途を優先して覚えます。
- 二値分類では、出力が0.5以上なら正例、未満なら負例のように閾値判定することがあります。
- 入力の絶対値が大きい領域では勾配が小さくなり、深いネットワークでは勾配消失の一因になることがあります。
混同しやすい論点
- -1から1の範囲に出力する代表例はtanhです。シグモイドとは範囲が違います。
- 入力をそのまま返すのは恒等関数に近い説明で、シグモイドではありません。
- シグモイドの出力は連続値であり、整数だけを返す関数ではありません。
他の選択肢の評価
- 選択肢1はtanhの説明に近く、シグモイドの出力範囲ではありません。
- 選択肢2が正解です。シグモイドは0から1の範囲に写像します。
- 選択肢3は誤りです。入力値を非線形に変換します。
- 選択肢4は誤りです。シグモイドは滑らかな連続値を返します。
実務上の意味
実務では、二値分類モデルの出力を確率スコアとして扱う場面が多くあります。ただし、シグモイドの値は常に完全に校正された確率とは限らないため、閾値設定、クラス不均衡、キャリブレーション、業務上の誤判定コストを考慮して運用します。
G検定では、用語の丸暗記だけでなく「どの場面で使う概念か」「何と対比されるか」まで問われやすいです。正答を選んだ後に、誤答がなぜ成り立たないかを説明できる状態にしておくと、文章表現を変えた問題にも対応しやすくなります。G検定対策では、正解語だけでなく、反対概念、代表例、限界、現在の実務での使われ方を一緒に説明できる粒度まで確認しておくと安定します。また、問題文の時代背景や技術名を手がかりに、どのAIブーム・どの学習方式・どの限界の話かを切り分けてください。