logo

微分多様体上で定義された関数の微分 📂幾何学

微分多様体上で定義された関数の微分

定理1

$M_{1}^{n}, M_{2}^{m}$をそれぞれ$m, n$次元の微分多様体としよう。$\varphi : M_{1} \to M_{2}$を微分可能な関数としよう。そして、全ての点$p \in M_{1}$と接ベクトル$v \in T_{p}M$に対して、微分可能な曲線

$$\alpha : (-\epsilon, \epsilon) \to M_{1} \text{ with } \alpha (0) = p,\ \alpha^{\prime}(0)=v$$

を選ぼう。そして$\beta = \varphi \circ \alpha$としよう。すると次のマッピング

$$ d\varphi_{p} : T_{p}M_{1} \to T_{\varphi(p)}M_{2} \\[1em] d\varphi_{p}(v) = \beta^{\prime}(0) $$

は$\alpha$の選択に関係なく線形変換である。

定義

上記の定理のように定義されたマッピング$d\varphi_{p}$を$p$から$\varphi$への微分differential of $\varphi$ at $p$という。

説明

微分係数ではなく、微分である。

接ベクトルは微分多様体上で定義された関数に作用する関数なので、微分$d\varphi_{p}$は関数空間から関数空間へのマッピングである。そして、証明の結論から$d\phi_{p}$は関数$\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}$に対するヤコビアンであることがわかる。

$$ \text{differential} = \text{Jacobian} $$

ヤコビアンの役割を思い出してみよう。例えば、$\mathbb{R}^{2}$で定義された関数の積分が次のように与えられたとする。

$$ \int \int f(x,y) dx dy $$

この積分を極座標$(r,\theta)$へ座標変換するとき、ヤコビアンの行列式$\displaystyle \begin{vmatrix}\dfrac{ \partial x}{ \partial r} & \dfrac{ \partial x}{ \partial \theta} \\ \textstyle{} \\ \dfrac{ \partial y}{ \partial r} & \dfrac{ \partial y}{ \partial \theta} \end{vmatrix}=r$をかける必要がある。

$$ \int \int f(x,y) dx dy = \int \int f(r, \theta) rdr d\theta $$

だから、$\phi : M_{1} \to M_{2}$の微分$d\phi_{p}$は微分多様体$M_{1}$と$M_{2}$の間の座標変換を、それぞれの座標系$\mathbf{x}, \mathbf{y}$を通して行うと考えることができる。

合成のヤコビアンはヤコビアンの積と等しいので、$\phi : M \to N, \psi : N \to L$と$p\in M$に対して次が成り立つ。

$$ d(\psi \circ \phi)_{p} = d(\psi)_{\phi (p)} d(\phi)_{p} $$

接ベクトルの定義と意味をよく理解していないと、当該ドキュメントの内容を理解するのが非常に難しいので、接ベクトルについて十分に理解してから読むようにしよう。

証明

$M_{1}$の点$p \in M_{1}$における座標系を$\mathbf{x} : U \subset \mathbb{R}^{n} \to M_{1}$としよう。$\mathbb{R}^{n}$の座標を$(r_{1}, \dots, r_{n}) \in \mathbb{R}^{n}$としよう。

$$ \mathbf{x}(r_{1}, \dots, r_{n}) = p \quad \text{and} \quad \mathbf{x}^{-1}(p) = \left( x_{1}(p), \dots, x_{n}(p) \right) $$

そして$M_{2}$の点$\phi (p) \in M_{2}$における座標系を$\mathbf{y} : V \subset \mathbb{R}^{m} \to M_{2}$としよう。$\mathbb{R}^{m}$の座標を$(s_{1}, \dots, s_{m}) \in \mathbb{R}^{m}$としよう。

$$ \mathbf{y}(s_{1}, \dots, s_{m}) = \phi (p) \quad \text{and} \quad \mathbf{y}^{-1}(\phi (p)) = \Big( y_{1}(\phi (p)), \dots, y_{m}(\phi (p)) \Big) $$

接ベクトルの定義により、$M_{2}$の点$\phi (p)$における接ベクトル$\beta^{\prime}(0)$は次のようになる。$M_{2}$上で定義される微分可能な関数$g : M_{2} \to \mathbb{R}$に対して、

$$ \begin{align*} \beta^{\prime}(0) g =&\ \dfrac{d}{dt}(g \circ \beta)(0) = \dfrac{d}{dt}(g \circ \mathbf{y} \circ \mathbf{y}^{-1} \circ \beta)(0) \\ =&\ \dfrac{d}{dt}\big( (g \circ \mathbf{y}) \circ (\mathbf{y}^{-1} \circ \beta)\big)(0) \\ =&\ \sum \limits_{j=1}^{m} \left.\dfrac{\partial (g\circ \mathbf{y})}{\partial s_{j}}\right|_{t=0} \dfrac{d (\mathbf{y}^{-1} \circ \beta)_{j}}{d t}(0) & \text{by } \href{https://freshrimpsushi.github.io/posts/chaine-rule-for-multivariable-vector-valued-funtion}{\text{chain rule}} \\ =&\ \sum \limits_{j=1}^{m} y_{j}^{\prime}(0) \left.\dfrac{\partial (g\circ \mathbf{y})}{\partial s_{j}}\right|_{t=0} \\ =&\ \sum_{j=1}^{m} y_{j}^{\prime}(0) \left.\dfrac{\partial g}{\partial y_{j}}\right|_{t=0} \end{align*} $$

この時、オペレーター$\left.\dfrac{\partial }{\partial y_{j}}\right|_{t=0}$の意味は、$M_{2}$上で定義されて微分できない関数$g$の定義域を$\mathbf{y}$との合成を通して$\mathbb{R}^{m}$へ引き寄せて微分するという意味である。では$y_{j}^{\prime}$を求めよう。

$$ y_{j}^{\prime} = \dfrac{d}{dt} (\mathbf{y}^{-1} \circ \beta)_{j} $$

接ベクトルを計算する時と同様に、$\mathbf{y}^{-1} \circ \beta$を以下のように分解して考えよう。

$$ \mathbf{y}^{-1} \circ \beta = \mathbf{y}^{-1} \circ \phi \circ \alpha = \mathbf{y}^{-1} \circ \phi \circ \mathbf{x} \circ \mathbf{x}^{-1} \circ \alpha $$

そして、上記の式を二つの関数$\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}$と$\mathbf{x}^{-1} \circ \alpha$の合成として扱おう。

  • パート1. $\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}$

    $\mathbf{y}^{-1} \circ \phi \circ \mathbf{x} : \mathbb{R}^{n} \to \mathbb{R}^{m}$であるから、

    $$ \begin{equation} \mathbf{y}^{-1}\left( \phi (\mathbf{x}(r_{1}, \dots, r_{n})) \right) = \left( y_{1}(\phi (\mathbf{x}(r_{1}, \dots, r_{n}))), \dots, y_{m}(\phi (\mathbf{x}(r_{1}, \dots, r_{n}))) \right) \end{equation} $$

    簡単に表現すると、

    $$ \mathbf{y}^{-1} \circ \phi \circ \mathbf{x} (r_{1}, \dots, r_{n}) = \left( y_{1}, \dots, y_{m}\right) $$

    ここで、各$y_{j}$は厳密に言うと$(1)$と同様に$\phi (\mathbf{x}(r_{1}, \dots, r_{n}))$に関する関数だが、表記が複雑になるため便宜上$(r_{1}, \dots, r_{n})$に関する関数として表記しよう。

    $$ y_{j} = y_{j}(r_{1}, \dots, r_{n}),\quad 1\le j \le m $$

  • パート2. $\mathbf{x}^{-1} \circ \alpha$

    $\mathbf{x}^{-1} \circ \alpha : \mathbb{R} \to \mathbb{R}^{n}$であるから、

    $$ \mathbf{x}^{-1} (\alpha (t)) = \left( x_{i}(\alpha (t)), \dots, x_{n}(\alpha (t)) \right) $$

    ここでも同様に、便宜上各$x_{i}$を$t$に関する関数として表記しよう。

    $$ \mathbf{x} \circ \alpha (t) = ( x_{i}(t), \dots, x_{n}(t) ) $$

これで、$(\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}) \circ (\mathbf{x}^{-1} \circ \alpha)$は$\mathbb{R} \to \mathbb{R}^{n}$である関数と$\mathbb{R}^{n} \to \mathbb{R}^{m}$である関数の合成であるから、連鎖律によって次を得る。

$$ \begin{align*} \dfrac{d}{dt} (\mathbf{y}^{-1} \circ \beta)(0) =&\ \dfrac{d}{dt}(\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}) \circ (\mathbf{x}^{-1} \circ \alpha)(0) \\ =&\ \begin{bmatrix} \sum \limits_{i=1}^{n} \left.\dfrac{\partial (\mathbf{y}^{-1} \circ \phi \circ \mathbf{x})_{1}}{\partial x_{i}}\right|_{t=0} \dfrac{d (\mathbf{x}^{-1} \circ \alpha)_{i}}{d t}(0) \\ \vdots \\ \sum \limits_{i=1}^{n} \left.\dfrac{\partial (\mathbf{y}^{-1} \circ \phi \circ \mathbf{x})_{m}}{\partial x_{i}}\right|_{t=0} \dfrac{d (\mathbf{x}^{-1} \circ \alpha)_{i}}{d t}(0) \end{bmatrix} \\ =&\ \begin{bmatrix} \sum \limits_{i=1}^{n} \left.\dfrac{\partial y_{1}}{\partial x_{i}}\right|_{t=0} \dfrac{d x_{i}}{d t}(0) \\ \vdots \\ \sum \limits_{i=1}^{n} \left.\dfrac{\partial y_{m}}{\partial x_{i}}\right|_{t=0} \dfrac{d x_{i}}{d t}(0) \end{bmatrix} \\ =&\ \begin{bmatrix} \sum \limits_{i=1}^{n} \dfrac{\partial y_{1}}{\partial x_{i}} x_{i}^{\prime}(0) \\ \vdots \\ \sum \limits_{i=1}^{n} \dfrac{\partial y_{m}}{\partial x_{i}} x_{i}^{\prime}(0) \end{bmatrix} \end{align*} $$

故に

$$ y_{j}^{\prime}(0) = \dfrac{d}{dt} (\mathbf{y}^{-1} \circ \beta)_{j}(0) = \sum \limits_{i=1}^{n} \dfrac{\partial y_{j}}{\partial x_{i}} x_{i}^{\prime}(0),\quad 1\le j \le m $$

したがって、もし$\beta^{\prime}(0)$を基底$\left\{ \left.\dfrac{\partial }{\partial y_{j}}\right|_{t=0} \right\}$に対する座標ベクトルとして表現すれば、次のようになる。

$$ \beta^{\prime}(0) = \sum_{j=1}^{m} y_{j}^{\prime}(0) \left.\dfrac{\partial}{\partial y_{j}}\right|_{t=0} = \begin{bmatrix} y_{1}^{\prime}(0) \\ \vdots \\ y_{m}^{\prime}(0) \end{bmatrix} = \begin{bmatrix} \sum \limits_{i=1}^{n} \dfrac{\partial y_{1}}{\partial x_{i}} x_{i}^{\prime}(0)\\ \vdots \\ \sum \limits_{i=1}^{n} \dfrac{\partial y_{m}}{\partial x_{i}} x_{i}^{\prime}(0) \end{bmatrix} $$

したがって、$\beta^{\prime}(0)$が$\alpha$に依存しないことがわかる。

一方で、$\alpha^{\prime}(0) = v$に対して次が成立する。

$$ v = \alpha^{\prime}(0) = \sum \limits_{i=1}^{n}x_{i}^{\prime}(0) \left.\dfrac{\partial }{\partial x_{i}}\right|_{t=0} = \begin{bmatrix} x_{1}^{\prime}(0) \\ \vdots \\ x_{n}^{\prime}(0) \end{bmatrix} $$

そこで、$\beta^{\prime}(0) = d\phi_{p}(v)$を整理すると次のようになる。

$$ \begin{align*} \beta^{\prime}(0) =&\ \begin{bmatrix} \sum \limits_{i=1}^{n} \dfrac{\partial y_{1}}{\partial x_{i}} x_{i}^{\prime}(0)\\ \vdots \\ \sum \limits_{i=1}^{n} \dfrac{\partial y_{m}}{\partial x_{i}} x_{i}^{\prime}(0) \end{bmatrix} \\ =&\ \begin{bmatrix} \dfrac{\partial y_{1}}{\partial x_{1}} & \dfrac{\partial y_{1}}{\partial x_{2}} & \dots & \dfrac{\partial y_{1}}{\partial x_{n}} \\[1em] \dfrac{\partial y_{2}}{\partial x_{1}} & \dfrac{\partial y_{2}}{\partial x_{2}} & \dots & \dfrac{\partial y_{2}}{\partial x_{n}} \\[1ex] \vdots & \vdots & \ddots & \vdots \\[1ex] \dfrac{\partial y_{m}}{\partial x_{1}} & \dfrac{\partial y_{m}}{\partial x_{2}} & \dots & \dfrac{\partial y_{m}}{\partial x_{n}} \end{bmatrix} \begin{bmatrix} x_{1}^{\prime}(0) \\ \vdots \\ x_{n}^{\prime}(0) \end{bmatrix} \\ =&\ \begin{bmatrix} \dfrac{\partial y_{1}}{\partial x_{1}} & \dfrac{\partial y_{1}}{\partial x_{2}} & \dots & \dfrac{\partial y_{1}}{\partial x_{n}} \\[1em] \dfrac{\partial y_{2}}{\partial x_{1}} & \dfrac{\partial y_{2}}{\partial x_{2}} & \dots & \dfrac{\partial y_{2}}{\partial x_{n}} \\[1ex] \vdots & \vdots & \ddots & \vdots \\[1ex] \dfrac{\partial y_{m}}{\partial x_{1}} & \dfrac{\partial y_{m}}{\partial x_{2}} & \dots & \dfrac{\partial y_{m}}{\partial x_{n}} \end{bmatrix} v \end{align*} $$

したがって、$d_{p}\phi$は次のような行列で表される線形変換である。

$$ d_{p}\phi = \begin{bmatrix} \dfrac{\partial y_{1}}{\partial x_{1}} & \dfrac{\partial y_{1}}{\partial x_{2}} & \dots & \dfrac{\partial y_{1}}{\partial x_{n}} \\[1em] \dfrac{\partial y_{2}}{\partial x_{1}} & \dfrac{\partial y_{2}}{\partial x_{2}} & \dots & \dfrac{\partial y_{2}}{\partial x_{n}} \\[1ex] \vdots & \vdots & \ddots & \vdots \\[1ex] \dfrac{\partial y_{m}}{\partial x_{1}} & \dfrac{\partial y_{m}}{\partial x_{2}} & \dots & \dfrac{\partial y_{m}}{\partial x_{n}} \end{bmatrix} $$

これはまた、関数$\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}$のヤコビアンでもある。

$$ d\phi_{p} = \text{Jacobian of } \mathbf{y}^{-1} \circ \phi \circ \mathbf{x} = \dfrac{\partial (y_{1}, \dots, y_{m})}{\partial (x_{1}, \dots, x_{n})} $$


  1. Manfredo P. Do Carmo, Riemannian Geometry (Eng Edition, 1992), p9-10 ↩︎