logo

미분 다양체 위에서 정의된 함수의 미분 📂기하학

미분 다양체 위에서 정의된 함수의 미분

정리1

$M_{1}^{n}, M_{2}^{m}$을 각각 $m, n$차원 미분 다양체라고 하자. $\varphi : M_{1} \to M_{2}$를 미분가능한 함수라고 하자. 그리고 모든 점 $p \in M_{1}$와 탄젠트 벡터 $v \in T_{p}M$에 대해서, 미분가능한 곡선

$$\alpha : (-\epsilon, \epsilon) \to M_{1} \text{ with } \alpha (0) = p,\ \alpha^{\prime}(0)=v$$

를 선택하자. 그리고 $\beta = \varphi \circ \alpha$라고 두자. 그러면 다음과 같은 매핑

$$ d\varphi_{p} : T_{p}M_{1} \to T_{\varphi(p)}M_{2} \\[1em] d\varphi_{p}(v) = \beta^{\prime}(0) $$

는 $\alpha$의 선택에 무관한 선형변환이다.

정의

위 정리와 같이 정의된 매핑 $d\varphi_{p}$를 $p$에서 $\varphi$의 미분differential of $\varphi$ at $p$이라 한다.

설명

도함수derivative가 아니라 미분differential이다.

탄젠트 벡터는 미분 다양체 위에서 정의된 함수에 작용하는 함수이므로, 미분 $d\varphi_{p}$는 함수공간에서 함수공간으로의 매핑이다. 또한 증명의 결론에서 $d\phi_{p}$는 함수 $\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}$에 대한 자코비안임을 알 수 있다.

$$ \text{differential} = \text{Jacobian} $$

자코비안의 역할을 다시 떠올려보자. 예를 들어 $\mathbb{R}^{2}$에서 정의된 함수의 적분이 다음과 같이 주어졌다고 하자.

$$ \int \int f(x,y) dx dy $$

이 적분을 극좌표 $(r,\theta)$로 좌표변환할 때 자코비안의 행렬식 $\displaystyle \begin{vmatrix}\dfrac{ \partial x}{ \partial r} & \dfrac{ \partial x}{ \partial \theta} \\ \textstyle{} \\ \dfrac{ \partial y}{ \partial r} & \dfrac{ \partial y}{ \partial \theta} \end{vmatrix}=r$ 만큼 곱해줘야 한다.

$$ \int \int f(x,y) dx dy = \int \int f(r, \theta) rdr d\theta $$

따라서 $\phi : M_{1} \to M_{2}$의 미분 $d\phi_{p}$는 미분 다양체 $M_{1}$과 $M_{2}$ 사이의 좌표 변환을 각 다양체의 좌표계 $\mathbf{x}, \mathbf{y}$를 통해 구현한 것이라고 생각할 수 있다.

합성의 자코비안은 자코비안의 곱과 같으므로 다음이 성립한다. $\phi : M \to N, \psi : N \to L$, $p\in M$에 대해서,

$$ d(\psi \circ \phi)_{p} = d(\psi)_{\phi (p)} d(\phi)_{p} $$

탄젠트 벡터의 정의와 의미에 대해서 잘 이해하고 있지 않으면 해당 문서의 내용을 이해하기 굉장히 힘드니 탄젠트 벡터에 대해서 충분히 이해하고 읽도록 하자.

증명

점 $p \in M_{1}$에서의 $M_{1}$의 좌표계를 $\mathbf{x} : U \subset \mathbb{R}^{n} \to M_{1}$라고 하자. $\mathbb{R}^{n}$의 좌표를 $(r_{1}, \dots, r_{n}) \in \mathbb{R}^{n}$이라고 하자.

$$ \mathbf{x}(r_{1}, \dots, r_{n}) = p \quad \text{and} \quad \mathbf{x}^{-1}(p) = \left( x_{1}(p), \dots, x_{n}(p) \right) $$

그리고 점 $\phi (p) \in M_{2}$에서의 $M_{2}$의 좌표계를 $\mathbf{y} : V \subset \mathbb{R}^{m} \to M_{2}$라고 하자. $\mathbb{R}^{m}$의 좌표를 $(s_{1}, \dots, s_{m}) \in \mathbb{R}^{m}$이라고 하자.

$$ \mathbf{y}(s_{1}, \dots, s_{m}) = \phi (p) \quad \text{and} \quad \mathbf{y}^{-1}(\phi (p)) = \Big( y_{1}(\phi (p)), \dots, y_{m}(\phi (p)) \Big) $$

탄젠트 벡터의 정의에 의해, $M_{2}$의 점 $\phi (p)$에서의 탄젠트 벡터 $\beta^{\prime}(0)$는 다음과 같다. $M_{2}$ 위에서 미분가능한 함수 $g : M_{2} \to \mathbb{R}$에 대해서,

$$ \begin{align*} \beta^{\prime}(0) g =&\ \dfrac{d}{dt}(g \circ \beta)(0) = \dfrac{d}{dt}(g \circ \mathbf{y} \circ \mathbf{y}^{-1} \circ \beta)(0) \\ =&\ \dfrac{d}{dt}\big( (g \circ \mathbf{y}) \circ (\mathbf{y}^{-1} \circ \beta)\big)(0) \\ =&\ \sum \limits_{j=1}^{m} \left.\dfrac{\partial (g\circ \mathbf{y})}{\partial s_{j}}\right|_{t=0} \dfrac{d (\mathbf{y}^{-1} \circ \beta)_{j}}{d t}(0) & \text{by } \href{https://freshrimpsushi.github.io/posts/chaine-rule-for-multivariable-vector-valued-funtion}{\text{chain rule}} \\ =&\ \sum \limits_{j=1}^{m} y_{j}^{\prime}(0) \left.\dfrac{\partial (g\circ \mathbf{y})}{\partial s_{j}}\right|_{t=0} \\ =&\ \sum_{j=1}^{m} y_{j}^{\prime}(0) \left.\dfrac{\partial g}{\partial y_{j}}\right|_{t=0} \end{align*} $$

이때 오퍼레이터 $\left.\dfrac{\partial }{\partial y_{j}}\right|_{t=0}$의 의미는 $M_{2}$ 위에서 정의되어 미분할 수 없는 $g$의 정의역을 $\mathbf{y}$와의 합성을 통해 $\mathbb{R}^{m}$으로 당겨와서 미분한다는 의미이다. 이제 $y_{j}^{\prime}$ 들을 구해보자.

$$ y_{j}^{\prime} = \dfrac{d}{dt} (\mathbf{y}^{-1} \circ \beta)_{j} $$

탄젠트 벡터를 계산할 때 처럼, $\mathbf{y}^{-1} \circ \beta$를 다음과 같이 분해해서 생각하자.

$$ \mathbf{y}^{-1} \circ \beta = \mathbf{y}^{-1} \circ \phi \circ \alpha = \mathbf{y}^{-1} \circ \phi \circ \mathbf{x} \circ \mathbf{x}^{-1} \circ \alpha $$

그리고 위 식을 두 함수 $\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}$와 $\mathbf{x}^{-1} \circ \alpha$의 합성으로 다룰 것이다.

  • Part 1. $\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}$

    $\mathbf{y}^{-1} \circ \phi \circ \mathbf{x} : \mathbb{R}^{n} \to \mathbb{R}^{m}$이므로

    $$ \begin{equation} \mathbf{y}^{-1}\left( \phi (\mathbf{x}(r_{1}, \dots, r_{n})) \right) = \left( y_{1}(\phi (\mathbf{x}(r_{1}, \dots, r_{n}))), \dots, y_{m}(\phi (\mathbf{x}(r_{1}, \dots, r_{n}))) \right) \end{equation} $$

    이를 간단히 적으면

    $$ \mathbf{y}^{-1} \circ \phi \circ \mathbf{x} (r_{1}, \dots, r_{n}) = \left( y_{1}, \dots, y_{m}\right) $$

    이때 각각의 $y_{j}$는 정확히 말해서 $(1)$에서와 같이 $\phi (\mathbf{x}(r_{1}, \dots, r_{n}))$에 관한 함수이지만, 표기가 너무 복잡하므로 편의상 $(r_{1}, \dots, r_{n})$에 관한 함수인 것처럼 표기하도록 하자.

    $$ y_{j} = y_{j}(r_{1}, \dots, r_{n}),\quad 1\le j \le m $$

  • Part 2. $\mathbf{x}^{-1} \circ \alpha$

    $\mathbf{x}^{-1} \circ \alpha : \mathbb{R} \to \mathbb{R}^{n}$이므로

    $$ \mathbf{x}^{-1} (\alpha (t)) = \left( x_{i}(\alpha (t)), \dots, x_{n}(\alpha (t)) \right) $$

    여기서도 마찬가지로, 편의상 각각의 $x_{i}$들이 $t$에 관한 함수인 것처럼 표기하도록 하자.

    $$ \mathbf{x} \circ \alpha (t) = ( x_{i}(t), \dots, x_{n}(t) ) $$

이제 그러면 $(\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}) \circ (\mathbf{x}^{-1} \circ \alpha)$는 $\mathbb{R} \to \mathbb{R}^{n}$인 함수와 $\mathbb{R}^{n} \to \mathbb{R}^{m}$인 함수의 합성이므로, 연쇄법칙에 의해서 다음을 얻는다.

$$ \begin{align*} \dfrac{d}{dt} (\mathbf{y}^{-1} \circ \beta)(0) =&\ \dfrac{d}{dt}(\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}) \circ (\mathbf{x}^{-1} \circ \alpha)(0) \\ =&\ \begin{bmatrix} \sum \limits_{i=1}^{n} \left.\dfrac{\partial (\mathbf{y}^{-1} \circ \phi \circ \mathbf{x})_{1}}{\partial x_{i}}\right|_{t=0} \dfrac{d (\mathbf{x}^{-1} \circ \alpha)_{i}}{d t}(0) \\ \vdots \\ \sum \limits_{i=1}^{n} \left.\dfrac{\partial (\mathbf{y}^{-1} \circ \phi \circ \mathbf{x})_{m}}{\partial x_{i}}\right|_{t=0} \dfrac{d (\mathbf{x}^{-1} \circ \alpha)_{i}}{d t}(0) \end{bmatrix} \\ =&\ \begin{bmatrix} \sum \limits_{i=1}^{n} \left.\dfrac{\partial y_{1}}{\partial x_{i}}\right|_{t=0} \dfrac{d x_{i}}{d t}(0) \\ \vdots \\ \sum \limits_{i=1}^{n} \left.\dfrac{\partial y_{m}}{\partial x_{i}}\right|_{t=0} \dfrac{d x_{i}}{d t}(0) \end{bmatrix} \\ =&\ \begin{bmatrix} \sum \limits_{i=1}^{n} \dfrac{\partial y_{1}}{\partial x_{i}} x_{i}^{\prime}(0) \\ \vdots \\ \sum \limits_{i=1}^{n} \dfrac{\partial y_{m}}{\partial x_{i}} x_{i}^{\prime}(0) \end{bmatrix} \end{align*} $$

따라서

$$ y_{j}^{\prime}(0) = \dfrac{d}{dt} (\mathbf{y}^{-1} \circ \beta)_{j}(0) = \sum \limits_{i=1}^{n} \dfrac{\partial y_{j}}{\partial x_{i}} x_{i}^{\prime}(0),\quad 1\le j \le m $$

그러므로 $\beta^{\prime}(0)$를 기저 $\left\{ \left.\dfrac{\partial }{\partial y_{j}}\right|_{t=0} \right\}$에 대한 좌표벡터로 표기하면 다음과 같다.

$$ \beta^{\prime}(0) = \sum_{j=1}^{m} y_{j}^{\prime}(0) \left.\dfrac{\partial}{\partial y_{j}}\right|_{t=0} = \begin{bmatrix} y_{1}^{\prime}(0) \\ \vdots \\ y_{m}^{\prime}(0) \end{bmatrix} = \begin{bmatrix} \sum \limits_{i=1}^{n} \dfrac{\partial y_{1}}{\partial x_{i}} x_{i}^{\prime}(0)\\ \vdots \\ \sum \limits_{i=1}^{n} \dfrac{\partial y_{m}}{\partial x_{i}} x_{i}^{\prime}(0) \end{bmatrix} $$

따라서 $\beta^{\prime}(0)$는 $\alpha$에 의존하지 않음을 알 수 있다.

한편 $\alpha^{\prime}(0) = v$에 대해서 다음이 성립한다.

$$ v = \alpha^{\prime}(0) = \sum \limits_{i=1}^{n}x_{i}^{\prime}(0) \left.\dfrac{\partial }{\partial x_{i}}\right|_{t=0} = \begin{bmatrix} x_{1}^{\prime}(0) \\ \vdots \\ x_{n}^{\prime}(0) \end{bmatrix} $$

따라서 $\beta^{\prime}(0) = d\phi_{p}(v)$를 정리하면 다음과 같다.

$$ \begin{align*} \beta^{\prime}(0) =&\ \begin{bmatrix} \sum \limits_{i=1}^{n} \dfrac{\partial y_{1}}{\partial x_{i}} x_{i}^{\prime}(0)\\ \vdots \\ \sum \limits_{i=1}^{n} \dfrac{\partial y_{m}}{\partial x_{i}} x_{i}^{\prime}(0) \end{bmatrix} \\ =&\ \begin{bmatrix} \dfrac{\partial y_{1}}{\partial x_{1}} & \dfrac{\partial y_{1}}{\partial x_{2}} & \dots & \dfrac{\partial y_{1}}{\partial x_{n}} \\[1em] \dfrac{\partial y_{2}}{\partial x_{1}} & \dfrac{\partial y_{2}}{\partial x_{2}} & \dots & \dfrac{\partial y_{2}}{\partial x_{n}} \\[1ex] \vdots & \vdots & \ddots & \vdots \\[1ex] \dfrac{\partial y_{m}}{\partial x_{1}} & \dfrac{\partial y_{m}}{\partial x_{2}} & \dots & \dfrac{\partial y_{m}}{\partial x_{n}} \end{bmatrix} \begin{bmatrix} x_{1}^{\prime}(0) \\ \vdots \\ x_{n}^{\prime}(0) \end{bmatrix} \\ =&\ \begin{bmatrix} \dfrac{\partial y_{1}}{\partial x_{1}} & \dfrac{\partial y_{1}}{\partial x_{2}} & \dots & \dfrac{\partial y_{1}}{\partial x_{n}} \\[1em] \dfrac{\partial y_{2}}{\partial x_{1}} & \dfrac{\partial y_{2}}{\partial x_{2}} & \dots & \dfrac{\partial y_{2}}{\partial x_{n}} \\[1ex] \vdots & \vdots & \ddots & \vdots \\[1ex] \dfrac{\partial y_{m}}{\partial x_{1}} & \dfrac{\partial y_{m}}{\partial x_{2}} & \dots & \dfrac{\partial y_{m}}{\partial x_{n}} \end{bmatrix} v \end{align*} $$

따라서 $d_{p}\phi$는 다음과 같은 행렬로 표현되는 선형 변환이다.

$$ d_{p}\phi = \begin{bmatrix} \dfrac{\partial y_{1}}{\partial x_{1}} & \dfrac{\partial y_{1}}{\partial x_{2}} & \dots & \dfrac{\partial y_{1}}{\partial x_{n}} \\[1em] \dfrac{\partial y_{2}}{\partial x_{1}} & \dfrac{\partial y_{2}}{\partial x_{2}} & \dots & \dfrac{\partial y_{2}}{\partial x_{n}} \\[1ex] \vdots & \vdots & \ddots & \vdots \\[1ex] \dfrac{\partial y_{m}}{\partial x_{1}} & \dfrac{\partial y_{m}}{\partial x_{2}} & \dots & \dfrac{\partial y_{m}}{\partial x_{n}} \end{bmatrix} $$

이는 함수 $\mathbf{y}^{-1} \circ \phi \circ \mathbf{x}$의 자코비안이기도 하다.

$$ d\phi_{p} = \text{Jacobian of } \mathbf{y}^{-1} \circ \phi \circ \mathbf{x} = \dfrac{\partial (y_{1}, \dots, y_{m})}{\partial (x_{1}, \dots, x_{n})} $$


  1. Manfredo P. Do Carmo, Riemannian Geometry (Eng Edition, 1992), p9-10 ↩︎