内積の意味と機械学習での役割
内積は、同じ次元の2つのベクトルについて、対応する要素同士を掛け合わせ、その総和を取る演算です。機械学習では、線形モデルの予測値、ニューラルネットワークの重み付き和、注意機構における類似度計算など、非常に多くの場面で使われます。G検定では、式を完全に暗記するより「対応要素の積の和」「類似度や重み付き和に使う」と理解することが大切です。
正解の理由
選択肢1の対応する要素同士を掛け、その総和を取る演算が正解です。たとえば [1,2,3] と [4,5,6] の内積は 1×4 + 2×5 + 3×6 = 32 です。線形モデルでは、特徴量ベクトルと重みベクトルの内積にバイアスを加えて予測値を作ります。
G検定で押さえるポイント
- 内積は2つのベクトルの向きが近いほど大きくなるため、類似度の考え方と結びつきます。
- 線形回帰やロジスティック回帰では、特徴量と重みの内積がモデル出力の基礎になります。
- Transformerの自己注意でも、QueryとKeyの内積に基づいて関連度を計算します。
混同しやすい論点
- ベクトルを縦に結合して行列にする操作は連結やスタックであり、内積ではありません。
- 0か1への変換は二値化のような前処理で、内積とは別です。
- 要素数を半分にする処理は次元削減やプーリングの文脈であり、内積の説明ではありません。
他の選択肢の評価
- 選択肢1が正解です。内積は対応要素の積を足し合わせます。
- 選択肢2はベクトルの結合であり、内積ではありません。
- 選択肢3は二値化の説明です。
- 選択肢4は要素数の削減であり、内積の性質ではありません。
実務上の意味
実務では、内積は推薦システムのユーザー・アイテム類似度、検索の埋め込みベクトル比較、ニューラルネットワークの層計算などに現れます。内積を理解していると、モデルが「特徴量を重みによってどのように合成しているか」を直感的に把握できます。
G検定では、用語の丸暗記だけでなく「どの場面で使う概念か」「何と対比されるか」まで問われやすいです。正答を選んだ後に、誤答がなぜ成り立たないかを説明できる状態にしておくと、文章表現を変えた問題にも対応しやすくなります。G検定対策では、正解語だけでなく、反対概念、代表例、限界、現在の実務での使われ方を一緒に説明できる粒度まで確認しておくと安定します。また、問題文の時代背景や技術名を手がかりに、どのAIブーム・どの学習方式・どの限界の話かを切り分けてください。