数学編

データサイエンスの基礎に必要な数学的素養

行列とベクトルの乗算 (第1要素) レベル1

行列 \(\mathbf{A} = \begin{pmatrix} 2 & -1 \\ 0 & 3 \end{pmatrix}\) とベクトル \(\mathbf{x} = \begin{pmatrix} 5 \\ -2 \end{pmatrix}\) があります。積 \(\mathbf{y} = \mathbf{A}\mathbf{x}\) の**第1要素**を計算してください。

解説
解答と解説を表示
<h4>行列とベクトルの乗算:基本</h4> <p>行列とベクトルの乗算は、線形代数における中心的な演算の一つであり、ベクトルを行列によって変換する操作を表します。特に機械学習では、データの変換やモデルの計算において不可欠な要素です。</p><h5>計算方法</h5> <p> \(m \times n\) 行列 \(\mathbf{A}\) と \(n\) 次元ベクトル \(\mathbf{x} = [x_1, x_2, ..., x_n]^T\) の積 \(\mathbf{y} = \mathbf{A}\mathbf{x}\) は、\(m\) 次元ベクトル \(\mathbf{y} = [y_1, y_2, ..., y_m]^T\) となります。結果のベクトル \(\mathbf{y}\) の \(i\) 番目の要素 \(y_i\) は、行列 \(\mathbf{A}\) の \(i\) 行目とベクトル \(\mathbf{x}\) の内積として計算されます。</p> <div class="formula"> $ y_i = (\mathbf{A}\text{ の } i \text{ 行目}) \cdot \mathbf{x} = \sum_{j=1}^{n} A_{ij} x_j$ </div> <p>ここで、\(A_{ij}\) は行列 \(\mathbf{A}\) の \(i\) 行 \(j\) 列の要素を表します。</p><h5>設問の計算例</h5> <p>与えられた行列は \(\mathbf{A} = \begin{pmatrix} 2 & -1 \\ 0 & 3 \end{pmatrix}\) で、ベクトルは \(\mathbf{x} = \begin{pmatrix} 5 \\ -2 \end{pmatrix}\) です。</p> <p>積 \(\mathbf{y} = \mathbf{A}\mathbf{x}\) を計算します。</p> <ul> <li><strong>第1要素 (y₁):</strong> 行列 \(\mathbf{A}\) の1行目 \([2, -1]\) とベクトル \(\mathbf{x}\) の内積です。 <div class="formula">$y_1 = (2 \times 5) + (-1 \times -2) = 10 + 2 = 12
lt;/div></li> <li><strong>第2要素 (y₂):</strong> 行列 \(\mathbf{A}\) の2行目 \([0, 3]\) とベクトル \(\mathbf{x}\) の内積です。 <div class="formula">$y_2 = (0 \times 5) + (3 \times -2) = 0 - 6 = -6
lt;/div></li> </ul> <p>したがって、積ベクトルは \(\mathbf{y} = \begin{pmatrix} 12 \\ -6 \end{pmatrix}\) となります。</p> <p>問題で問われているのは、このベクトル \(\mathbf{y}\) の<strong>第1要素</strong>であるため、答えは <strong>12</strong> です。</p><div class="key-point"> <div class="key-point-title">重要ポイント</div> <ul> <li><strong>計算可能条件:</strong> 行列 \(\mathbf{A}\) とベクトル \(\mathbf{x}\) の乗算 \(\mathbf{A}\mathbf{x}\) が定義されるのは、\(\mathbf{A}\) の<strong>列数</strong>と \(\mathbf{x}\) の<strong>次元数</strong>が一致する場合のみです。</li> <li><strong>結果の次元:</strong> \(m \times n\) 行列と \(n\) 次元ベクトルの積は、\(m\) 次元ベクトルになります。</li> <li><strong>非可換性:</strong> 行列とベクトルの乗算は、一般に \(\mathbf{A}\mathbf{x}\) と \(\mathbf{x}\mathbf{A}\) は異なります(後者は定義されないことが多い)。</li> </ul> </div><h5>線形変換としての意味</h5> <p>行列とベクトルの乗算は、ベクトル空間における<strong>線形変換</strong>を表します。これは、ベクトル \(\mathbf{x}\) を行列 \(\mathbf{A}\) を用いて別のベクトル \(\mathbf{y}\) へと写像(変換)する操作と解釈できます。回転、拡大・縮小、せん断(スキュー)などの幾何学的な変換は、特定の行列をベクトルに乗じることで表現できます。</p><h5>機械学習における応用</h5> <ul> <li><strong>ニューラルネットワークの全結合層:</strong> 各層の計算は、入力ベクトルに重み行列を乗じ、バイアスベクトルを加算する操作が基本です。\( \mathbf{y} = \text{activation}(\mathbf{W}\mathbf{x} + \mathbf{b}) \) の \(\mathbf{W}\mathbf{x}\) の部分に相当します。</li> <li><strong>線形回帰:</strong> モデルの予測値 \(\hat{y}\) は、特徴量ベクトル \(\mathbf{x}\) と学習された重みベクトル \(\mathbf{w}\) の内積(一種の行列とベクトルの積)で計算されます (\(\hat{y} = \mathbf{w}^T \mathbf{x}\))。</li> <li><strong>主成分分析 (PCA):</strong> データを主成分軸に射影する際に、データ行列と固有ベクトルからなる行列の乗算が用いられます。</li> <li><strong>状態空間モデル:</strong> 時系列分析などで、現在の状態ベクトルから次の状態ベクトルを予測する際に、遷移行列と現在の状態ベクトルの乗算が使われます。</li> </ul>
問題 1/1
カテゴリ一覧に戻る