logo

微分多様体上で定義された関数の微分 📂幾何学

微分多様体上で定義された関数の微分

定理1

M1n,M2mM_{1}^{n}, M_{2}^{m}をそれぞれm,nm, n次元の微分多様体としよう。φ:M1M2\varphi : M_{1} \to M_{2}微分可能な関数としよう。そして、全ての点pM1p \in M_{1}接ベクトルvTpMv \in T_{p}Mに対して、微分可能な曲線

α:(ϵ,ϵ)M1 with α(0)=p, α(0)=v\alpha : (-\epsilon, \epsilon) \to M_{1} \text{ with } \alpha (0) = p,\ \alpha^{\prime}(0)=v

を選ぼう。そしてβ=φα\beta = \varphi \circ \alphaとしよう。すると次のマッピング

dφp:TpM1Tφ(p)M2dφp(v)=β(0) d\varphi_{p} : T_{p}M_{1} \to T_{\varphi(p)}M_{2} \\[1em] d\varphi_{p}(v) = \beta^{\prime}(0)

α\alphaの選択に関係なく線形変換である。

定義

上記の定理のように定義されたマッピングdφpd\varphi_{p}ppからφ\varphiへの微分differential of φ\varphi at ppという。

説明

微分係数ではなく、微分である。

接ベクトルは微分多様体上で定義された関数に作用する関数なので、微分dφpd\varphi_{p}は関数空間から関数空間へのマッピングである。そして、証明の結論からdϕpd\phi_{p}は関数y1ϕx\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}に対するヤコビアンであることがわかる。

differential=Jacobian \text{differential} = \text{Jacobian}

ヤコビアンの役割を思い出してみよう。例えば、R2\mathbb{R}^{2}で定義された関数の積分が次のように与えられたとする。

f(x,y)dxdy \int \int f(x,y) dx dy

この積分を極座標(r,θ)(r,\theta)座標変換するとき、ヤコビアンの行列式xrxθyryθ=r\displaystyle \begin{vmatrix}\dfrac{ \partial x}{ \partial r} & \dfrac{ \partial x}{ \partial \theta} \\ \textstyle{} \\ \dfrac{ \partial y}{ \partial r} & \dfrac{ \partial y}{ \partial \theta} \end{vmatrix}=rをかける必要がある。

f(x,y)dxdy=f(r,θ)rdrdθ \int \int f(x,y) dx dy = \int \int f(r, \theta) rdr d\theta

だから、ϕ:M1M2\phi : M_{1} \to M_{2}の微分dϕpd\phi_{p}は微分多様体M1M_{1}M2M_{2}の間の座標変換を、それぞれの座標系x,y\mathbf{x}, \mathbf{y}を通して行うと考えることができる。

合成のヤコビアンはヤコビアンの積と等しいのでϕ:MN,ψ:NL\phi : M \to N, \psi : N \to LpMp\in Mに対して次が成り立つ。

d(ψϕ)p=d(ψ)ϕ(p)d(ϕ)p d(\psi \circ \phi)_{p} = d(\psi)_{\phi (p)} d(\phi)_{p}

接ベクトルの定義と意味をよく理解していないと、当該ドキュメントの内容を理解するのが非常に難しいので、接ベクトルについて十分に理解してから読むようにしよう。

証明

M1M_{1}の点pM1p \in M_{1}における座標系x:URnM1\mathbf{x} : U \subset \mathbb{R}^{n} \to M_{1}としよう。Rn\mathbb{R}^{n}の座標を(r1,,rn)Rn(r_{1}, \dots, r_{n}) \in \mathbb{R}^{n}としよう。

x(r1,,rn)=pandx1(p)=(x1(p),,xn(p)) \mathbf{x}(r_{1}, \dots, r_{n}) = p \quad \text{and} \quad \mathbf{x}^{-1}(p) = \left( x_{1}(p), \dots, x_{n}(p) \right)

そしてM2M_{2}の点ϕ(p)M2\phi (p) \in M_{2}における座標系y:VRmM2\mathbf{y} : V \subset \mathbb{R}^{m} \to M_{2}としよう。Rm\mathbb{R}^{m}の座標を(s1,,sm)Rm(s_{1}, \dots, s_{m}) \in \mathbb{R}^{m}としよう。

y(s1,,sm)=ϕ(p)andy1(ϕ(p))=(y1(ϕ(p)),,ym(ϕ(p))) \mathbf{y}(s_{1}, \dots, s_{m}) = \phi (p) \quad \text{and} \quad \mathbf{y}^{-1}(\phi (p)) = \Big( y_{1}(\phi (p)), \dots, y_{m}(\phi (p)) \Big)

接ベクトルの定義により、M2M_{2}の点ϕ(p)\phi (p)における接ベクトルβ(0)\beta^{\prime}(0)は次のようになる。M2M_{2}上で定義される微分可能な関数g:M2Rg : M_{2} \to \mathbb{R}に対して、

β(0)g= ddt(gβ)(0)=ddt(gyy1β)(0)= ddt((gy)(y1β))(0)= j=1m(gy)sjt=0d(y1β)jdt(0)by \href= j=1myj(0)(gy)sjt=0= j=1myj(0)gyjt=0 \begin{align*} \beta^{\prime}(0) g =&\ \dfrac{d}{dt}(g \circ \beta)(0) = \dfrac{d}{dt}(g \circ \mathbf{y} \circ \mathbf{y}^{-1} \circ \beta)(0) \\ =&\ \dfrac{d}{dt}\big( (g \circ \mathbf{y}) \circ (\mathbf{y}^{-1} \circ \beta)\big)(0) \\ =&\ \sum \limits_{j=1}^{m} \left.\dfrac{\partial (g\circ \mathbf{y})}{\partial s_{j}}\right|_{t=0} \dfrac{d (\mathbf{y}^{-1} \circ \beta)_{j}}{d t}(0) & \text{by } \href{https://freshrimpsushi.github.io/posts/chaine-rule-for-multivariable-vector-valued-funtion}{\text{chain rule}} \\ =&\ \sum \limits_{j=1}^{m} y_{j}^{\prime}(0) \left.\dfrac{\partial (g\circ \mathbf{y})}{\partial s_{j}}\right|_{t=0} \\ =&\ \sum_{j=1}^{m} y_{j}^{\prime}(0) \left.\dfrac{\partial g}{\partial y_{j}}\right|_{t=0} \end{align*}

この時、オペレーターyjt=0\left.\dfrac{\partial }{\partial y_{j}}\right|_{t=0}の意味は、M2M_{2}上で定義されて微分できない関数ggの定義域をy\mathbf{y}との合成を通してRm\mathbb{R}^{m}へ引き寄せて微分するという意味である。ではyjy_{j}^{\prime}を求めよう。

yj=ddt(y1β)j y_{j}^{\prime} = \dfrac{d}{dt} (\mathbf{y}^{-1} \circ \beta)_{j}

接ベクトルを計算する時と同様に、y1β\mathbf{y}^{-1} \circ \betaを以下のように分解して考えよう。

y1β=y1ϕα=y1ϕxx1α \mathbf{y}^{-1} \circ \beta = \mathbf{y}^{-1} \circ \phi \circ \alpha = \mathbf{y}^{-1} \circ \phi \circ \mathbf{x} \circ \mathbf{x}^{-1} \circ \alpha

そして、上記の式を二つの関数y1ϕx\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}x1α\mathbf{x}^{-1} \circ \alphaの合成として扱おう。

  • パート1. y1ϕx\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}

    y1ϕx:RnRm\mathbf{y}^{-1} \circ \phi \circ \mathbf{x} : \mathbb{R}^{n} \to \mathbb{R}^{m}であるから、

    y1(ϕ(x(r1,,rn)))=(y1(ϕ(x(r1,,rn))),,ym(ϕ(x(r1,,rn)))) \begin{equation} \mathbf{y}^{-1}\left( \phi (\mathbf{x}(r_{1}, \dots, r_{n})) \right) = \left( y_{1}(\phi (\mathbf{x}(r_{1}, \dots, r_{n}))), \dots, y_{m}(\phi (\mathbf{x}(r_{1}, \dots, r_{n}))) \right) \end{equation}

    簡単に表現すると、

    y1ϕx(r1,,rn)=(y1,,ym) \mathbf{y}^{-1} \circ \phi \circ \mathbf{x} (r_{1}, \dots, r_{n}) = \left( y_{1}, \dots, y_{m}\right)

    ここで、各yjy_{j}は厳密に言うと(1)(1)と同様にϕ(x(r1,,rn))\phi (\mathbf{x}(r_{1}, \dots, r_{n}))に関する関数だが、表記が複雑になるため便宜上(r1,,rn)(r_{1}, \dots, r_{n})に関する関数として表記しよう。

    yj=yj(r1,,rn),1jm y_{j} = y_{j}(r_{1}, \dots, r_{n}),\quad 1\le j \le m

  • パート2. x1α\mathbf{x}^{-1} \circ \alpha

    x1α:RRn\mathbf{x}^{-1} \circ \alpha : \mathbb{R} \to \mathbb{R}^{n}であるから、

    x1(α(t))=(xi(α(t)),,xn(α(t))) \mathbf{x}^{-1} (\alpha (t)) = \left( x_{i}(\alpha (t)), \dots, x_{n}(\alpha (t)) \right)

    ここでも同様に、便宜上各xix_{i}ttに関する関数として表記しよう。

    xα(t)=(xi(t),,xn(t)) \mathbf{x} \circ \alpha (t) = ( x_{i}(t), \dots, x_{n}(t) )

これで、(y1ϕx)(x1α)(\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}) \circ (\mathbf{x}^{-1} \circ \alpha)RRn\mathbb{R} \to \mathbb{R}^{n}である関数とRnRm\mathbb{R}^{n} \to \mathbb{R}^{m}である関数の合成であるから、連鎖律によって次を得る。

ddt(y1β)(0)= ddt(y1ϕx)(x1α)(0)= [i=1n(y1ϕx)1xit=0d(x1α)idt(0)i=1n(y1ϕx)mxit=0d(x1α)idt(0)]= [i=1ny1xit=0dxidt(0)i=1nymxit=0dxidt(0)]= [i=1ny1xixi(0)i=1nymxixi(0)] \begin{align*} \dfrac{d}{dt} (\mathbf{y}^{-1} \circ \beta)(0) =&\ \dfrac{d}{dt}(\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}) \circ (\mathbf{x}^{-1} \circ \alpha)(0) \\ =&\ \begin{bmatrix} \sum \limits_{i=1}^{n} \left.\dfrac{\partial (\mathbf{y}^{-1} \circ \phi \circ \mathbf{x})_{1}}{\partial x_{i}}\right|_{t=0} \dfrac{d (\mathbf{x}^{-1} \circ \alpha)_{i}}{d t}(0) \\ \vdots \\ \sum \limits_{i=1}^{n} \left.\dfrac{\partial (\mathbf{y}^{-1} \circ \phi \circ \mathbf{x})_{m}}{\partial x_{i}}\right|_{t=0} \dfrac{d (\mathbf{x}^{-1} \circ \alpha)_{i}}{d t}(0) \end{bmatrix} \\ =&\ \begin{bmatrix} \sum \limits_{i=1}^{n} \left.\dfrac{\partial y_{1}}{\partial x_{i}}\right|_{t=0} \dfrac{d x_{i}}{d t}(0) \\ \vdots \\ \sum \limits_{i=1}^{n} \left.\dfrac{\partial y_{m}}{\partial x_{i}}\right|_{t=0} \dfrac{d x_{i}}{d t}(0) \end{bmatrix} \\ =&\ \begin{bmatrix} \sum \limits_{i=1}^{n} \dfrac{\partial y_{1}}{\partial x_{i}} x_{i}^{\prime}(0) \\ \vdots \\ \sum \limits_{i=1}^{n} \dfrac{\partial y_{m}}{\partial x_{i}} x_{i}^{\prime}(0) \end{bmatrix} \end{align*}

故に

yj(0)=ddt(y1β)j(0)=i=1nyjxixi(0),1jm y_{j}^{\prime}(0) = \dfrac{d}{dt} (\mathbf{y}^{-1} \circ \beta)_{j}(0) = \sum \limits_{i=1}^{n} \dfrac{\partial y_{j}}{\partial x_{i}} x_{i}^{\prime}(0),\quad 1\le j \le m

したがって、もしβ(0)\beta^{\prime}(0)を基底{yjt=0}\left\{ \left.\dfrac{\partial }{\partial y_{j}}\right|_{t=0} \right\}に対する座標ベクトルとして表現すれば、次のようになる。

β(0)=j=1myj(0)yjt=0=[y1(0)ym(0)]=[i=1ny1xixi(0)i=1nymxixi(0)] \beta^{\prime}(0) = \sum_{j=1}^{m} y_{j}^{\prime}(0) \left.\dfrac{\partial}{\partial y_{j}}\right|_{t=0} = \begin{bmatrix} y_{1}^{\prime}(0) \\ \vdots \\ y_{m}^{\prime}(0) \end{bmatrix} = \begin{bmatrix} \sum \limits_{i=1}^{n} \dfrac{\partial y_{1}}{\partial x_{i}} x_{i}^{\prime}(0)\\ \vdots \\ \sum \limits_{i=1}^{n} \dfrac{\partial y_{m}}{\partial x_{i}} x_{i}^{\prime}(0) \end{bmatrix}

したがって、β(0)\beta^{\prime}(0)α\alphaに依存しないことがわかる。

一方で、α(0)=v\alpha^{\prime}(0) = vに対して次が成立する。

v=α(0)=i=1nxi(0)xit=0=[x1(0)xn(0)] v = \alpha^{\prime}(0) = \sum \limits_{i=1}^{n}x_{i}^{\prime}(0) \left.\dfrac{\partial }{\partial x_{i}}\right|_{t=0} = \begin{bmatrix} x_{1}^{\prime}(0) \\ \vdots \\ x_{n}^{\prime}(0) \end{bmatrix}

そこで、β(0)=dϕp(v)\beta^{\prime}(0) = d\phi_{p}(v)を整理すると次のようになる。

β(0)= [i=1ny1xixi(0)i=1nymxixi(0)]= [y1x1y1x2y1xny2x1y2x2y2xnymx1ymx2ymxn][x1(0)xn(0)]= [y1x1y1x2y1xny2x1y2x2y2xnymx1ymx2ymxn]v \begin{align*} \beta^{\prime}(0) =&\ \begin{bmatrix} \sum \limits_{i=1}^{n} \dfrac{\partial y_{1}}{\partial x_{i}} x_{i}^{\prime}(0)\\ \vdots \\ \sum \limits_{i=1}^{n} \dfrac{\partial y_{m}}{\partial x_{i}} x_{i}^{\prime}(0) \end{bmatrix} \\ =&\ \begin{bmatrix} \dfrac{\partial y_{1}}{\partial x_{1}} & \dfrac{\partial y_{1}}{\partial x_{2}} & \dots & \dfrac{\partial y_{1}}{\partial x_{n}} \\[1em] \dfrac{\partial y_{2}}{\partial x_{1}} & \dfrac{\partial y_{2}}{\partial x_{2}} & \dots & \dfrac{\partial y_{2}}{\partial x_{n}} \\[1ex] \vdots & \vdots & \ddots & \vdots \\[1ex] \dfrac{\partial y_{m}}{\partial x_{1}} & \dfrac{\partial y_{m}}{\partial x_{2}} & \dots & \dfrac{\partial y_{m}}{\partial x_{n}} \end{bmatrix} \begin{bmatrix} x_{1}^{\prime}(0) \\ \vdots \\ x_{n}^{\prime}(0) \end{bmatrix} \\ =&\ \begin{bmatrix} \dfrac{\partial y_{1}}{\partial x_{1}} & \dfrac{\partial y_{1}}{\partial x_{2}} & \dots & \dfrac{\partial y_{1}}{\partial x_{n}} \\[1em] \dfrac{\partial y_{2}}{\partial x_{1}} & \dfrac{\partial y_{2}}{\partial x_{2}} & \dots & \dfrac{\partial y_{2}}{\partial x_{n}} \\[1ex] \vdots & \vdots & \ddots & \vdots \\[1ex] \dfrac{\partial y_{m}}{\partial x_{1}} & \dfrac{\partial y_{m}}{\partial x_{2}} & \dots & \dfrac{\partial y_{m}}{\partial x_{n}} \end{bmatrix} v \end{align*}

したがって、dpϕd_{p}\phiは次のような行列で表される線形変換である。

dpϕ=[y1x1y1x2y1xny2x1y2x2y2xnymx1ymx2ymxn] d_{p}\phi = \begin{bmatrix} \dfrac{\partial y_{1}}{\partial x_{1}} & \dfrac{\partial y_{1}}{\partial x_{2}} & \dots & \dfrac{\partial y_{1}}{\partial x_{n}} \\[1em] \dfrac{\partial y_{2}}{\partial x_{1}} & \dfrac{\partial y_{2}}{\partial x_{2}} & \dots & \dfrac{\partial y_{2}}{\partial x_{n}} \\[1ex] \vdots & \vdots & \ddots & \vdots \\[1ex] \dfrac{\partial y_{m}}{\partial x_{1}} & \dfrac{\partial y_{m}}{\partial x_{2}} & \dots & \dfrac{\partial y_{m}}{\partial x_{n}} \end{bmatrix}

これはまた、関数y1ϕx\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}ヤコビアンでもある。

dϕp=Jacobian of y1ϕx=(y1,,ym)(x1,,xn) d\phi_{p} = \text{Jacobian of } \mathbf{y}^{-1} \circ \phi \circ \mathbf{x} = \dfrac{\partial (y_{1}, \dots, y_{m})}{\partial (x_{1}, \dots, x_{n})}


  1. Manfredo P. Do Carmo, Riemannian Geometry (Eng Edition, 1992), p9-10 ↩︎