주곡률 📂기하학

주곡률

Principal Curvature

빌드업1

곡면 $M$이 어느 방향으로, 얼마나 휘어있는지를 알려면 각 방향마다의 법곡률 $\kappa_{n}$을 알면 된다. 다시말해 점 $p$에서의 모든 $\kappa_{n}$을 알면 $M$이 어떻게 구부려져있는지를 알 수 있다. 이를 위한 첫번째 단계로 $\kappa_{n}$의 최댓값과 최솟값에 대해서 생각해보자. 단위속력곡선 $\boldsymbol{\gamma}$에 대해서 다음의 정리가 성립한다.

보조정리

$\mathbf{T}$를 단위 속력 곡선 $\boldsymbol{\gamma}$의 탄젠트 필드라고 하면, $\kappa_{n} = II (\mathbf{T}, \mathbf{T})$가 성립한다.

따라서 우리의 목적은 $\left\| \mathbf{X} \right\| = \left\langle \mathbf{X}, \mathbf{X} \right\rangle = 1$인 탄젠트 벡터 $\mathbf{X} \in T_{p}M$에 대해서 $II(\mathbf{X}, \mathbf{X}) = \kappa_{n}$의 최댓값과 최솟값을 구하는 것이다. 여기서 $II$는 제2 기본형식이다.

이 문제는 다시 말해서 제약조건이 $\left\langle \mathbf{X}, \mathbf{X} \right\rangle = 1$인, $II(\mathbf{X}, \mathbf{X})$의 최대화(최소화) 문제이다. 이러한 문제는 라그랑주 승수법으로 풀 수 있다. 그러면 우리가 풀어야할 문제는 $II(\mathbf{X}, \mathbf{X})$의 최댓값(최솟값)을 구하는 것에서 다음과 같은 $f$의 최댓값(최솟값)을 구하는 것으로 바뀐다. 바인가르텡 맵 $L$에 대해서 $II(\mathbf{X}, \mathbf{X}) = \left\langle L(\mathbf{X}), \mathbf{X} \right\rangle$이므로,

$$ \begin{align*} f(\mathbf{X}, \lambda) &= II(\mathbf{X}, \mathbf{X}) - \lambda(\left\langle \mathbf{X}, \mathbf{X} \right\rangle - 1) \\ &= \left\langle L(\mathbf{X}), \mathbf{X} \right\rangle - \lambda\left\langle \mathbf{X}, \mathbf{X} \right\rangle + \lambda\\ &= \left\langle L(\mathbf{X}) - \lambda \mathbf{X}, \mathbf{X} \right\rangle + \lambda\\ \end{align*} $$

이를 좌표조각사상 $\mathbf{x}$에 대해서 표현하면, $\mathbf{X} = X^{1}\mathbf{x}_{1} + \mathbf{X}^{2}\mathbf{x}_{2}$, $L(\mathbf{x}_{k}) = \sum\limits_{l}{L^{l}}_{k}\mathbf{x}_{l}$이므로,

$$ \begin{align*} f(\mathbf{X}, \lambda) &= f(X^{1}, X^{2}, \lambda) \\ &= \lambda + \left\langle \sum\limits_{i,j} {L^{i}}_{j}X^{j}\mathbf{x}_{i} - \sum\limits_{j}\lambda X^{j}\mathbf{x}_{j}, \sum\limits_{k}X^{k}\mathbf{x}_{k} \right\rangle \\ &= \lambda + \left\langle {L^{i}}_{j}X^{j}\mathbf{x}_{i} - \lambda X^{j}\mathbf{x}_{j}, X^{k}\mathbf{x}_{k} \right\rangle & \text{by } \href{https://freshrimpsushi.github.io/posts/einstein-notation}{\text{Einstein notation}} \\ &= \lambda + {L^{i}}_{j}X^{j}X^{k}\left\langle \mathbf{x}_{i}, \mathbf{x}_{k} \right\rangle - \lambda X^{j}X^{k} \left\langle \mathbf{x}_{j}, \mathbf{x}_{k} \right\rangle \\ &= \lambda + {L^{i}}_{j}X^{j}X^{k}g_{ik} - \lambda X^{j}X^{k} g_{jk} \\ &= \lambda + {L^{i}}_{j}X^{j}X^{k}g_{ik} - \lambda X^{j}X^{k} \delta_{ij}g_{ik} \\ &= \lambda + ({L^{i}}_{j} - \lambda \delta_{ij}) X^{j}X^{k}g_{ik} \end{align*} $$

$\delta$는 크로네커 델타이다. 라그랑주 승수법에 의해 $\dfrac{\partial f}{\partial X^{l}} = 0$을 얻는다. $L_{jk} = \sum\limits_{l}{L^{l}}_{k}g_{lj}$이므로,

$$ \begin{align*} 0 = \dfrac{\partial f}{\partial X^{l}} &= \sum\limits_{ijk} ({L^{i}}_{j} - \lambda \delta_{ij})\delta_{jl}X^{k}g_{ik} + \sum\limits_{ijk} ({L^{i}}_{j} - \lambda \delta_{ij})\delta_{kl}X^{j}g_{ik} \\ &= \sum\limits_{ik} ({L^{i}}_{l} - \lambda \delta_{il})X^{k}g_{ik} + \sum\limits_{ij} ({L^{i}}_{j} - \lambda \delta_{ij})X^{j}g_{il} \\ &= \sum\limits_{ik} {L^{i}}_{l}X^{k}g_{ik} - \sum\limits_{ik}\lambda \delta_{il}X^{k}g_{ik} + \sum\limits_{ij} {L^{i}}_{j}X^{j}g_{il} - \sum\limits_{ij}\lambda \delta_{ij}X^{j}g_{il} \\ &= \sum\limits_{k} L_{kl}X^{k} - \sum\limits_{k}\lambda X^{k}g_{lk} + \sum\limits_{j} L_{lj}X^{j} - \sum\limits_{j}\lambda X^{j}g_{jl} \\ &= \sum\limits_{j} \left( L_{jl}X^{j} - \lambda X^{j}g_{lj} + L_{lj}X^{j} - \lambda X^{j}g_{jl} \right) \\ &= 2\sum\limits_{j} \left( L_{jl}X^{j} - \lambda X^{j}g_{lj} \right) = 2\sum\limits_{j}L_{jl}X^{j} - 2\sum\limits_{j}\lambda X^{j}g_{lj} \\ &= 2\sum\limits_{j}L_{jl}X^{j} - 2\sum\limits_{j}\lambda X^{j}g_{lj} \\ &= 2\sum\limits_{ij}{L^{i}}_{j}X^{j}g_{il} - 2\sum\limits_{ij}\lambda X^{j}\delta_{ij}g_{li} \\ &= 2\sum\limits_{ij}\left( {L^{i}}_{j} - \lambda\delta_{ij} \right)X^{j}g_{li} \\ \end{align*} $$

$$ \implies \sum\limits_{ij}\left( {L^{i}}_{j} - \lambda\delta_{ij} \right)X^{j}g_{li} = 0 $$

따라서 모든 $Y^{l}$에 대해서 다음을 얻는다.

$$ \sum\limits_{ijl}\left( {L^{i}}_{j} - \lambda\delta_{ij} \right)X^{j}Y^{l}g_{li} = 0 $$

이는 다음을 의미한다. $\forall \mathbf{Y}=\sum\limits_{l}Y^{l}\mathbf{x}_{l}$,

$$ \begin{align*} \left\langle L(\mathbf{X}) - \lambda \mathbf{X}, \mathbf{Y} \right\rangle &= \left\langle L\left( \sum\limits_{j}X^{j}\mathbf{x}_{j} \right) - \sum\limits_{i}\lambda X^{i} \mathbf{x}_{i}, \sum\limits_{l}Y^{l}\mathbf{x}_{l} \right\rangle \\ &= \left\langle \sum\limits_{ij}{L^{i}}_{j}X^{j}\mathbf{x}_{i} - \sum\limits_{ij}\lambda \delta_{ij} X^{j} \mathbf{x}_{i}, \sum\limits_{l}Y^{l}\mathbf{x}_{l} \right\rangle \\ &= \sum\limits_{ijl}{L^{i}}_{j}X^{j}Y^{l}\left\langle \mathbf{x}_{i}, \mathbf{x}_{l} \right\rangle - \sum\limits_{ijl}\lambda \delta_{ij}X^{j}Y^{l}\left\langle \mathbf{x}_{i}, \mathbf{x}_{l} \right\rangle \\ &= \sum\limits_{ijl}({L^{i}}_{j} - \lambda \delta_{ij} )X^{j}Y^{l}g_{il} \\ &= 0 \end{align*} $$

그러므로 다음을 얻는다.

$$ \dfrac{\partial f}{\partial X^{l}} = 0 \implies \left\langle L(\mathbf{X}) - \lambda \mathbf{X} \mathbf{Y} \right\rangle = 0\quad \forall \mathbf{Y} \implies L(\mathbf{X}) = \lambda \mathbf{X} $$

따라서 $\lambda$는 $L$의 고유값이고, $\mathbf{X}$는 이에 대응되는 고유벡터이다. 특히 $\mathbf{X}$는 제약조건 $\left\langle \mathbf{X}, \mathbf{X} \right\rangle = 1$을 만족해야하므로 단위고유벡터unit eigenvector이다. 그러면 두 단위고유벡터에 대해서 $II(\mathbf{X}, \mathbf{X})$가 최댓값(최솟값)을 가진다는 결론을 얻는다.

더하여, $B = \left\{ \mathbf{x}_{1}, \mathbf{x}_{2} \right\}$라 하고 편의상 $L$의 행렬표현의 표기를 $L$과 중복하여 $L \equiv \left[ L \right]_{B}$라고 하면, $\lambda$는 다음 식의 해이다.

$$ \begin{equation} \begin{aligned} \det(L - \lambda I) &= (\lambda - {L^{1}}_{1})(\lambda - {L^{2}}_{2}) - {L^{1}}_{2}{L^{2}}_{1} \\ &= \lambda^{2} - ({L^{1}}_{1}{L^{2}}_{2})\lambda + ({L^{1}}_{1}{L^{2}}_{2} - {L^{1}}_{2}{L^{2}}_{1}) \\ &= \lambda^{2} - \trace(L) \lambda + \det(L) \\ &= 0 \end{aligned} \label{1} \end{equation} $$

두 해(고유값)를 $\kappa_{1}, \kappa_{2}$($\kappa_{1} \ge \kappa_{2}$)라고 표기하자. 아래의 정리는 이 두 값이 곧 $\kappa_{n}$의 최솟값과 최댓값임을 말해준다.

정리

곡면 $M$ 위의 각 점에는 1.법곡률이 각각 최대, 최소이며, 2.서로 수직하는 두 방향이 존재한다.

증명

$L$의 두 고유값은 각각 법곡률의 최댓값과 최솟값이다.

위의 논의에 따라 $L$의 고유벡터 방향에 대해서 $M$ 위의 점 $p$에서의 법곡률은 최댓값과 최솟값을 가진다. 점 $p$에서 $L$의 두 고유값을 $\kappa_{1}, \kappa_{2}(\kappa_{1} \ge \kappa_{2})$, 각각에 대응되는 고유벡터를 $\mathbf{X}_{1}, \mathbf{X}_{2}$라고 하자. 그러면 법곡률의 최댓값과 최솟값은 다음과 같다.

$$ \kappa_{n} = II(\mathbf{X}_{i}, \mathbf{X}_{i}) = \left\langle L(\mathbf{X}_{i}), \mathbf{X}_{i} \right\rangle = \left\langle \kappa_{i}\mathbf{X}_{i}, \mathbf{X}_{i} \right\rangle = \kappa_{i}\left\langle \mathbf{X}_{i}, \mathbf{X}_{i} \right\rangle = \kappa_{i} $$

따라서 고유값 중 큰 값인 $\kappa_{1}$이 최대법곡률, 작은 값인 $\kappa_{2}$가 최소법곡률이다.

두 고유벡터는 서로 수직이다.

  • $\kappa_{1} \ne \kappa_{2}$

이 경우에는, $L$이 자기수반이므로,

$$ \kappa_{1} \left\langle \mathbf{X}_{1}, \mathbf{X}_{2} \right\rangle = \left\langle L(\mathbf{X}_{1}), \mathbf{X}_{2} \right\rangle = \left\langle \mathbf{X}_{1}, L(\mathbf{X}_{2}) \right\rangle = \left\langle \mathbf{X}_{1}, \kappa_{2} \mathbf{X}_{2} \right\rangle = \kappa_{2} \left\langle \mathbf{X}_{1}, \mathbf{X}_{2} \right\rangle \\ \implies (\kappa_{1} - \kappa_{2}) \left\langle \mathbf{X}_{1}, \mathbf{X}_{2} \right\rangle = 0 $$

가정에 의해, $\left\langle \mathbf{X}_{1}, \mathbf{X}_{2} \right\rangle = 0$

  • $\kappa_{1} = \kappa_{2}$

보조정리

$\lambda$, $\mathbf{X}$가 곡면 $M$위의 점 $p$에서의 $L$의 고유값, 고유벡터라고 하자. 단위 탄젠트벡터 $\mathbf{Y} \in T_{p}M$가 $\left\langle \mathbf{X}, \mathbf{Y} \right\rangle = 0$을 만족한다고 하자. 그러면 $\mathbf{Y}$도 고유벡터이다.

증명

가정에 의해 $\left\{ \mathbf{X}, \mathbf{Y} \right\}$는 $T_{p}M$의 기저이다. $L$이 자기수반이므로,

$$ 0 = \left\langle \lambda \mathbf{X}, \mathbf{Y} \right\rangle = \left\langle L(\mathbf{X}), \mathbf{Y} \right\rangle = \left\langle \mathbf{X}, L(\mathbf{Y}) \right\rangle = \left\langle \mathbf{X}, a_{1} \mathbf{X} + a_{2} \mathbf{Y} \right\rangle $$

따라서 $a_{1}=0$이고, $L(\mathbf{Y}) = a_{2}\mathbf{Y}$이므로 $\mathbf{Y}$ 또한 고유벡터이다.

보조정리에 따라서 $\mathbf{X}_{1}$과 직교하는 단위벡터 또한 고유벡터이다. 따라서 이를 $\mathbf{X}_{2}$로 선택하면 된다.

정의

  • 점 $p\in M$에서 정의된 바인가르텡 맵 $L$의 고유값 $\kappa_{1}, \kappa_{2}$들을, 점 $p$에서 곡면 $M$의 주곡률principal curvatures이라고 한다. $L$의 고유벡터를, 점 $p$에서의 주방향principal direction이라고 한다.

  • 두 주곡률 $\kappa_{1}, \kappa_{2}$가 서로 같은 점을 엄빌릭umbilic이라 한다.

  • 곡선의 모든 점에서의 탄젠트 벡터가 곡면 $M$ 위의 그 점에서의 주방향이면, 그 곡선을 곡면 $M$ 위의 곡률선line of curvature on a surface $M$이라 한다.

설명

위의 논의에 따라 주곡률 중 큰 값(작은 값)은 $p$ 점에서의 법곡률의 최댓값(최솟값)이다.

$S^{2}$와 $\mathbb{R}^{2}$의 모든 점은 엄빌릭이다. [역도 성립한다.]

$\eqref{1}$에서, 근과 계수의 관계에 의해 $\kappa_{1} \kappa_{2} = \det L$이고 이를 가우스 곡률이라 한다. 또한 $\dfrac{\kappa_{1} + \kappa_{2}}{2} = \dfrac{\trace{L}}{2}$를 평균 곡률이라 한다.


  1. Richard S. Millman and George D. Parker, Elements of Differential Geometry (1977), p127-129 ↩︎

댓글