この問題では勾配ベクトル (Gradient) の計算を学習します。勾配 $\nabla f$ は関数が最も急激に増加する方向と大きさを示すベクトルであり、最適化アルゴリズムの羅針盤となる最重要概念です。
勾配ベクトルの定義
3変数関数 $f(x,y,z)$ の勾配は、偏微分係数を成分とするベクトルです:
$\nabla f = \left( \frac{\partial f}{\partial x}, \frac{\partial f}{\partial y}, \frac{\partial f}{\partial z} \right)$
1. 各成分の偏微分
- $\frac{\partial T}{\partial x} = \frac{\partial}{\partial x}(x^2 + y^2 - 2z) = 2x$
- $\frac{\partial T}{\partial y} = \frac{\partial}{\partial y}(x^2 + y^2 - 2z) = 2y$
- $\frac{\partial T}{\partial z} = \frac{\partial}{\partial z}(x^2 + y^2 - 2z) = -2$
したがって、$\nabla T = (2x, 2y, -2)$ です。
2. 値の代入
点 $(1, -2, 3)$ を代入します:
- $x$ 成分: $2 \times 1 = 2$
- $y$ 成分: $2 \times (-2) = -4$
- $z$ 成分: $-2$ (定数)
$\nabla T(1, -2, 3) = (2, -4, -2)$
3. 物理的意味
この点において、ベクトル $(2, -4, -2)$ の方向に進むと温度が最も急激に上昇します。
勾配降下法
機械学習では損失関数 $L$ を最小化したいので、勾配の逆方向 $-\nabla L$ にパラメータを更新します。これが勾配降下法 (Gradient Descent) の基本原理です。