RNNが対象とするデータ
RNN(リカレントニューラルネットワーク)は、文章、音声、時系列センサーデータのように、順序に意味があるデータを扱うために設計されたニューラルネットワークです。各時刻の入力だけでなく、前時刻までの情報を隠れ状態として受け継ぐ点が特徴です。
正解の理由
選択肢1の「文章や時系列のように順序を持つデータ」は、RNNが得意としてきた対象です。文章では単語の並びが意味を決めますし、時系列では過去の値が現在や未来の値に影響します。RNNは同じ重みを時刻方向に共有しながら、隠れ状態を更新して系列情報を処理します。
他の選択肢の評価
- 選択肢2は順序が意味を持たない固定表であり、RNNの必要性は高くありません。表形式データなら決定木系や線形モデルなども候補になります。
- 選択肢3は入力が存在しないため、通常の教師あり学習問題として成立しません。
- 選択肢4の暗号化済みデータは、そのままでは内容のパターンを学習しにくく、RNNの典型対象ではありません。
発展と注意点
- 単純RNNは長期依存を学びにくく、勾配消失・勾配爆発が起こりやすいです。
- LSTMやGRUはゲート機構で長期依存の学習を改善します。
- 現在の自然言語処理では、並列計算しやすく長距離依存を扱いやすいTransformerが広く使われています。
G検定では、RNNを「系列データ」、CNNを「画像などの空間構造」、Transformerを「Attentionによる系列処理」と対応づけて整理しましょう。
試験対策の確認
ディープラーニングの問題では、層や関数の名前だけでなく、情報がどの向きに流れるか、どの量が学習されるか、どの量がハイパーパラメータかを区別することが重要です。実務では、活性化関数、出力層、損失関数、最適化手法、入力形状の組み合わせが崩れると学習や推論が成立しません。計算問題でも、式の各記号が何を表すかを確認しましょう。
追加の確認観点
選択肢を読む際は、層、活性化関数、損失関数、最適化、入力形状のどの要素を問われているかを切り分けてください。ディープラーニングでは、名称が似ていても役割が異なります。たとえばReLUは非線形性、Softmaxは多クラス確率、バックプロパゲーションは勾配計算、プーリングは空間サイズ縮小に関係します。実務では、形状計算や出力層の選択を誤ると学習が成立しません。G検定では、数式を丸暗記するだけでなく、どの問題を解くための部品かを説明できる状態を目標にしてください。