logo

주곡률 📂기하학

주곡률

빌드업1

곡면 MM이 어느 방향으로, 얼마나 휘어있는지를 알려면 각 방향마다의 법곡률 κn\kappa_{n}을 알면 된다. 다시말해 점 pp에서의 모든 κn\kappa_{n}을 알면 MM이 어떻게 구부려져있는지를 알 수 있다. 이를 위한 첫번째 단계로 κn\kappa_{n}의 최댓값과 최솟값에 대해서 생각해보자. 단위속력곡선 γ\boldsymbol{\gamma}에 대해서 다음의 정리가 성립한다.

보조정리

T\mathbf{T}단위 속력 곡선 γ\boldsymbol{\gamma}탄젠트 필드라고 하면, κn=II(T,T)\kappa_{n} = II (\mathbf{T}, \mathbf{T})가 성립한다.

따라서 우리의 목적은 X=X,X=1\left\| \mathbf{X} \right\| = \left\langle \mathbf{X}, \mathbf{X} \right\rangle = 1탄젠트 벡터 XTpM\mathbf{X} \in T_{p}M에 대해서 II(X,X)=κnII(\mathbf{X}, \mathbf{X}) = \kappa_{n}의 최댓값과 최솟값을 구하는 것이다. 여기서 IIII제2 기본형식이다.

이 문제는 다시 말해서 제약조건이 X,X=1\left\langle \mathbf{X}, \mathbf{X} \right\rangle = 1인, II(X,X)II(\mathbf{X}, \mathbf{X})의 최대화(최소화) 문제이다. 이러한 문제는 라그랑주 승수법으로 풀 수 있다. 그러면 우리가 풀어야할 문제는 II(X,X)II(\mathbf{X}, \mathbf{X})의 최댓값(최솟값)을 구하는 것에서 다음과 같은 ff의 최댓값(최솟값)을 구하는 것으로 바뀐다. 바인가르텡 맵 LL에 대해서 II(X,X)=L(X),XII(\mathbf{X}, \mathbf{X}) = \left\langle L(\mathbf{X}), \mathbf{X} \right\rangle이므로,

f(X,λ)=II(X,X)λ(X,X1)=L(X),XλX,X+λ=L(X)λX,X+λ \begin{align*} f(\mathbf{X}, \lambda) &= II(\mathbf{X}, \mathbf{X}) - \lambda (\left\langle \mathbf{X}, \mathbf{X} \right\rangle - 1) \\ &= \left\langle L(\mathbf{X}), \mathbf{X} \right\rangle - \lambda\left\langle \mathbf{X}, \mathbf{X} \right\rangle + \lambda\\ &= \left\langle L(\mathbf{X}) - \lambda \mathbf{X}, \mathbf{X} \right\rangle + \lambda\\ \end{align*}

이를 좌표조각사상 x\mathbf{x}에 대해서 표현하면, X=X1x1+X2x2\mathbf{X} = X^{1}\mathbf{x}_{1} + \mathbf{X}^{2}\mathbf{x}_{2}, L(xk)=lLlkxlL(\mathbf{x}_{k}) = \sum\limits_{l}{L^{l}}_{k}\mathbf{x}_{l}이므로,

f(X,λ)=f(X1,X2,λ)=λ+i,jLijXjxijλXjxj,kXkxk=λ+LijXjxiλXjxj,Xkxkby \href=λ+LijXjXkxi,xkλXjXkxj,xk=λ+LijXjXkgikλXjXkgjk=λ+LijXjXkgikλXjXkδijgik=λ+(Lijλδij)XjXkgik \begin{align*} f(\mathbf{X}, \lambda) &= f(X^{1}, X^{2}, \lambda) \\ &= \lambda + \left\langle \sum\limits_{i,j} {L^{i}}_{j}X^{j}\mathbf{x}_{i} - \sum\limits_{j}\lambda X^{j}\mathbf{x}_{j}, \sum\limits_{k}X^{k}\mathbf{x}_{k} \right\rangle \\ &= \lambda + \left\langle {L^{i}}_{j}X^{j}\mathbf{x}_{i} - \lambda X^{j}\mathbf{x}_{j}, X^{k}\mathbf{x}_{k} \right\rangle & \text{by } \href{https://freshrimpsushi.github.io/posts/einstein-notation}{\text{Einstein notation}} \\ &= \lambda + {L^{i}}_{j}X^{j}X^{k}\left\langle \mathbf{x}_{i}, \mathbf{x}_{k} \right\rangle - \lambda X^{j}X^{k} \left\langle \mathbf{x}_{j}, \mathbf{x}_{k} \right\rangle \\ &= \lambda + {L^{i}}_{j}X^{j}X^{k}g_{ik} - \lambda X^{j}X^{k} g_{jk} \\ &= \lambda + {L^{i}}_{j}X^{j}X^{k}g_{ik} - \lambda X^{j}X^{k} \delta_{ij}g_{ik} \\ &= \lambda + ({L^{i}}_{j} - \lambda \delta_{ij}) X^{j}X^{k}g_{ik} \end{align*}

δ\delta크로네커 델타이다. 라그랑주 승수법에 의해 fXl=0\dfrac{\partial f}{\partial X^{l}} = 0을 얻는다. Ljk=lLlkgljL_{jk} = \sum\limits_{l}{L^{l}}_{k}g_{lj}이므로,

0=fXl=ijk(Lijλδij)δjlXkgik+ijk(Lijλδij)δklXjgik=ik(Lilλδil)Xkgik+ij(Lijλδij)Xjgil=ikLilXkgikikλδilXkgik+ijLijXjgilijλδijXjgil=kLklXkkλXkglk+jLljXjjλXjgjl=j(LjlXjλXjglj+LljXjλXjgjl)=2j(LjlXjλXjglj)=2jLjlXj2jλXjglj=2jLjlXj2jλXjglj=2ijLijXjgil2ijλXjδijgli=2ij(Lijλδij)Xjgli \begin{align*} 0 = \dfrac{\partial f}{\partial X^{l}} &= \sum\limits_{ijk} ({L^{i}}_{j} - \lambda \delta_{ij})\delta_{jl}X^{k}g_{ik} + \sum\limits_{ijk} ({L^{i}}_{j} - \lambda \delta_{ij})\delta_{kl}X^{j}g_{ik} \\ &= \sum\limits_{ik} ({L^{i}}_{l} - \lambda \delta_{il})X^{k}g_{ik} + \sum\limits_{ij} ({L^{i}}_{j} - \lambda \delta_{ij})X^{j}g_{il} \\ &= \sum\limits_{ik} {L^{i}}_{l}X^{k}g_{ik} - \sum\limits_{ik}\lambda \delta_{il}X^{k}g_{ik} + \sum\limits_{ij} {L^{i}}_{j}X^{j}g_{il} - \sum\limits_{ij}\lambda \delta_{ij}X^{j}g_{il} \\ &= \sum\limits_{k} L_{kl}X^{k} - \sum\limits_{k}\lambda X^{k}g_{lk} + \sum\limits_{j} L_{lj}X^{j} - \sum\limits_{j}\lambda X^{j}g_{jl} \\ &= \sum\limits_{j} \left( L_{jl}X^{j} - \lambda X^{j}g_{lj} + L_{lj}X^{j} - \lambda X^{j}g_{jl} \right) \\ &= 2\sum\limits_{j} \left( L_{jl}X^{j} - \lambda X^{j}g_{lj} \right) = 2\sum\limits_{j}L_{jl}X^{j} - 2\sum\limits_{j}\lambda X^{j}g_{lj} \\ &= 2\sum\limits_{j}L_{jl}X^{j} - 2\sum\limits_{j}\lambda X^{j}g_{lj} \\ &= 2\sum\limits_{ij}{L^{i}}_{j}X^{j}g_{il} - 2\sum\limits_{ij}\lambda X^{j}\delta_{ij}g_{li} \\ &= 2\sum\limits_{ij}\left( {L^{i}}_{j} - \lambda\delta_{ij} \right)X^{j}g_{li} \\ \end{align*}

    ij(Lijλδij)Xjgli=0 \implies \sum\limits_{ij}\left( {L^{i}}_{j} - \lambda\delta_{ij} \right)X^{j}g_{li} = 0

따라서 모든 YlY^{l}에 대해서 다음을 얻는다.

ijl(Lijλδij)XjYlgli=0 \sum\limits_{ijl}\left( {L^{i}}_{j} - \lambda\delta_{ij} \right)X^{j}Y^{l}g_{li} = 0

이는 다음을 의미한다. Y=lYlxl\forall \mathbf{Y}=\sum\limits_{l}Y^{l}\mathbf{x}_{l},

L(X)λX,Y=L(jXjxj)iλXixi,lYlxl=ijLijXjxiijλδijXjxi,lYlxl=ijlLijXjYlxi,xlijlλδijXjYlxi,xl=ijl(Lijλδij)XjYlgil=0 \begin{align*} \left\langle L(\mathbf{X}) - \lambda \mathbf{X}, \mathbf{Y} \right\rangle &= \left\langle L\left( \sum\limits_{j}X^{j}\mathbf{x}_{j} \right) - \sum\limits_{i}\lambda X^{i} \mathbf{x}_{i}, \sum\limits_{l}Y^{l}\mathbf{x}_{l} \right\rangle \\ &= \left\langle \sum\limits_{ij}{L^{i}}_{j}X^{j}\mathbf{x}_{i} - \sum\limits_{ij}\lambda \delta_{ij} X^{j} \mathbf{x}_{i}, \sum\limits_{l}Y^{l}\mathbf{x}_{l} \right\rangle \\ &= \sum\limits_{ijl}{L^{i}}_{j}X^{j}Y^{l}\left\langle \mathbf{x}_{i}, \mathbf{x}_{l} \right\rangle - \sum\limits_{ijl}\lambda \delta_{ij}X^{j}Y^{l}\left\langle \mathbf{x}_{i}, \mathbf{x}_{l} \right\rangle \\ &= \sum\limits_{ijl}({L^{i}}_{j} - \lambda \delta_{ij} )X^{j}Y^{l}g_{il} \\ &= 0 \end{align*}

그러므로 다음을 얻는다.

fXl=0    L(X)λX,Y=0Y    L(X)=λX \dfrac{\partial f}{\partial X^{l}} = 0 \implies \left\langle L(\mathbf{X}) - \lambda \mathbf{X}, \mathbf{Y} \right\rangle = 0\quad \forall \mathbf{Y} \implies L(\mathbf{X}) = \lambda \mathbf{X}

따라서 λ\lambdaLL고유값이고, X\mathbf{X}는 이에 대응되는 고유벡터이다. 특히 X\mathbf{X}는 제약조건 X,X=1\left\langle \mathbf{X}, \mathbf{X} \right\rangle = 1을 만족해야하므로 단위고유벡터unit eigenvector이다. 그러면 두 단위고유벡터에 대해서 II(X,X)II(\mathbf{X}, \mathbf{X})가 최댓값(최솟값)을 가진다는 결론을 얻는다.

더하여, B={x1,x2}B = \left\{ \mathbf{x}_{1}, \mathbf{x}_{2} \right\}라 하고 편의상 LL행렬표현의 표기를 LL과 중복하여 L[L]BL \equiv \left[ L \right]_{B}라고 하면, λ\lambda는 다음 식의 해이다.

det(LλI)=(λL11)(λL22)L12L21=λ2(L11L22)λ+(L11L22L12L21)=λ2tr(L)λ+det(L)=0 \begin{equation} \begin{aligned} \det(L - \lambda I) &= (\lambda - {L^{1}}_{1})(\lambda - {L^{2}}_{2}) - {L^{1}}_{2}{L^{2}}_{1} \\ &= \lambda^{2} - ({L^{1}}_{1}{L^{2}}_{2})\lambda + ({L^{1}}_{1}{L^{2}}_{2} - {L^{1}}_{2}{L^{2}}_{1}) \\ &= \lambda^{2} - \tr(L) \lambda + \det(L) \\ &= 0 \end{aligned} \label{1} \end{equation}

두 해(고유값)를 κ1,κ2\kappa_{1}, \kappa_{2}(κ1κ2\kappa_{1} \ge \kappa_{2})라고 표기하자. 아래의 정리는 이 두 값이 곧 κn\kappa_{n}의 최솟값과 최댓값임을 말해준다.

정리

곡면 MM 위의 각 점에는 1.법곡률이 각각 최대, 최소이며, 2.서로 수직하는 두 방향이 존재한다.

증명

LL의 두 고유값은 각각 법곡률의 최댓값과 최솟값이다.

위의 논의에 따라 LL의 고유벡터 방향에 대해서 MM 위의 점 pp에서의 법곡률은 최댓값과 최솟값을 가진다. 점 pp에서 LL의 두 고유값을 κ1,κ2(κ1κ2)\kappa_{1}, \kappa_{2}(\kappa_{1} \ge \kappa_{2}), 각각에 대응되는 고유벡터를 X1,X2\mathbf{X}_{1}, \mathbf{X}_{2}라고 하자. 그러면 법곡률의 최댓값과 최솟값은 다음과 같다.

κn=II(Xi,Xi)=L(Xi),Xi=κiXi,Xi=κiXi,Xi=κi \kappa_{n} = II(\mathbf{X}_{i}, \mathbf{X}_{i}) = \left\langle L(\mathbf{X}_{i}), \mathbf{X}_{i} \right\rangle = \left\langle \kappa_{i}\mathbf{X}_{i}, \mathbf{X}_{i} \right\rangle = \kappa_{i}\left\langle \mathbf{X}_{i}, \mathbf{X}_{i} \right\rangle = \kappa_{i}

따라서 고유값 중 큰 값인 κ1\kappa_{1}이 최대법곡률, 작은 값인 κ2\kappa_{2}가 최소법곡률이다.

두 고유벡터는 서로 수직이다.

  • κ1κ2\kappa_{1} \ne \kappa_{2}

이 경우에는, LL이 자기수반이므로,

κ1X1,X2=L(X1),X2=X1,L(X2)=X1,κ2X2=κ2X1,X2    (κ1κ2)X1,X2=0 \kappa_{1} \left\langle \mathbf{X}_{1}, \mathbf{X}_{2} \right\rangle = \left\langle L(\mathbf{X}_{1}), \mathbf{X}_{2} \right\rangle = \left\langle \mathbf{X}_{1}, L(\mathbf{X}_{2}) \right\rangle = \left\langle \mathbf{X}_{1}, \kappa_{2} \mathbf{X}_{2} \right\rangle = \kappa_{2} \left\langle \mathbf{X}_{1}, \mathbf{X}_{2} \right\rangle \\ \implies (\kappa_{1} - \kappa_{2}) \left\langle \mathbf{X}_{1}, \mathbf{X}_{2} \right\rangle = 0

가정에 의해, X1,X2=0\left\langle \mathbf{X}_{1}, \mathbf{X}_{2} \right\rangle = 0

  • κ1=κ2\kappa_{1} = \kappa_{2}

보조정리

λ\lambda, X\mathbf{X}가 곡면 MM위의 점 pp에서의 LL의 고유값, 고유벡터라고 하자. 단위 탄젠트벡터 YTpM\mathbf{Y} \in T_{p}MX,Y=0\left\langle \mathbf{X}, \mathbf{Y} \right\rangle = 0을 만족한다고 하자. 그러면 Y\mathbf{Y}도 고유벡터이다.

증명

가정에 의해 {X,Y}\left\{ \mathbf{X}, \mathbf{Y} \right\}TpMT_{p}M의 기저이다. LL이 자기수반이므로,

0=λX,Y=L(X),Y=X,L(Y)=X,a1X+a2Y 0 = \left\langle \lambda \mathbf{X}, \mathbf{Y} \right\rangle = \left\langle L(\mathbf{X}), \mathbf{Y} \right\rangle = \left\langle \mathbf{X}, L(\mathbf{Y}) \right\rangle = \left\langle \mathbf{X}, a_{1} \mathbf{X} + a_{2} \mathbf{Y} \right\rangle

따라서 a1=0a_{1}=0이고, L(Y)=a2YL(\mathbf{Y}) = a_{2}\mathbf{Y}이므로 Y\mathbf{Y} 또한 고유벡터이다.

보조정리에 따라서 X1\mathbf{X}_{1}과 직교하는 단위벡터 또한 고유벡터이다. 따라서 이를 X2\mathbf{X}_{2}로 선택하면 된다.

정의

  • pMp\in M에서 정의된 바인가르텡 맵 LL고유값 κ1,κ2\kappa_{1}, \kappa_{2}들을, 점 pp에서 곡면 MM주곡률principal curvatures이라고 한다. LL고유벡터를, 점 pp에서의 주방향principal direction이라고 한다.

  • 두 주곡률 κ1,κ2\kappa_{1}, \kappa_{2}가 서로 같은 점을 엄빌릭umbilic이라 한다.

  • 곡선의 모든 점에서의 탄젠트 벡터가 곡면 MM 위의 그 점에서의 주방향이면, 그 곡선을 곡면 MM 위의 곡률선line of curvature on a surface MM이라 한다.

설명

위의 논의에 따라 주곡률 중 큰 값(작은 값)은 pp 점에서의 법곡률의 최댓값(최솟값)이다.

S2S^{2}R2\mathbb{R}^{2}의 모든 점은 엄빌릭이다. [역도 성립한다.]

(1)\eqref{1}에서, 근과 계수의 관계에 의해 κ1κ2=detL\kappa_{1} \kappa_{2} = \det L이고 이를 가우스 곡률이라 한다. 또한 κ1+κ22=trL2\dfrac{\kappa_{1} + \kappa_{2}}{2} = \dfrac{\tr{L}}{2}평균 곡률이라 한다.


  1. Richard S. Millman and George D. Parker, Elements of Differential Geometry (1977), p127-129 ↩︎