活性化関数の特性
カテゴリ: ディープラーニング編
問題 1/10
レベル: 1
問題:
次の活性化関数の特性について、正しいものを選びなさい。
選択肢:
ReLU関数は負の入力に対して勾配が0になるため、ニューロンが「死ぬ」現象が発生することがある。
Sigmoid関数は出力範囲が[0, 1]であり、勾配消失問題を引き起こしにくい。
tanh関数は出力範囲が[-1, 1]であり、常に正の値を出力する。
Leaky ReLUはReLUの改良版であり、負の入力に対して常に0を出力する。
5秒後に問題演習ページにリダイレクトします。
今すぐ問題に挑戦
JavaScript が無効です。
こちらから問題ページにアクセス
してください。