일반적인 각도와 수직의 정의
정의 1
$V$ 가 벡터공간이라고 하자. 두 벡터 $\mathbf{u}, \mathbf{v} \in V$ 에 대해 다음을 만족하는 $\theta$ 를 두 벡터 사이의 각도angle라 정의한다. $$ \cos \theta = {{ \left< \mathbf{u}, \mathbf{v} \right> } \over { \left| \mathbf{u} \right| \left| \mathbf{v} \right| }} $$ 만약 두 벡터 $\mathbf{u}, \mathbf{v}$ 가 $\left< \mathbf{u}, \mathbf{v} \right> = 0$ 을 만족하면 $\mathbf{u}$ 가 $\mathbf{v}$ 에 직교orthogonal 혹은 수직perpendicular하다고 말하고 $\mathbf{u} \perp \mathbf{v}$ 와 같이 나타낸다.
- $\left< \cdot, \cdot \right>$ 는 내적이고, $| \cdot |$ 은 벡터의 길이로써 $\left| \mathbf{u} \right| := \sqrt{ \left< \mathbf{u}, \mathbf{u} \right> }$ 와 같이 계산된다.
설명
누구나 동의할 수 있는 설명은 아니겠지만 직교는 추상적, 수직은 기하적인 느낌을 주는 뉘앙스가 있다. 기본적으로 두 단어 중 무엇을 쓰든 상관 없고, tex에서 기호 $\perp$ 가 \perp
를 쓰는만큼 ‘수직’이 심각하게 마이너한 표현이 아니라는 것만 알아두자.
교과과정에서 내적을 벡터의 크기와 내각으로 생각하던 것과 달리, 다차원 유클리드 공간 $V = \mathbb{R}^{n}$ 등에서는 오히려 내적으로써 각도를 생각한다. 이렇게 일반화된 정의에 따르면 딱히 ‘좌표’ 같은 단어 없이 두 벡터의 ‘방향차’를 생각할 수 있다.
응용
머신러닝을 위시한 응용수학에서는 이를 이용해 코사인 유사도cosine Similarity와 같은 측정법을 사용하기도 한다. 예를 들어 두 문서 A, B 에서 특정 단어 a, b, c의 빈도를 벡터로 나타냈을 때 두 문서가 얼마나 유사한지를 파악하는 잣대가 될 수 있다.
만약 A 문서보다 B 문서의 길이가 압도적으로 길다면, 가령 100페이지와 1000페이지라면 단어의 빈도 역시 자연스럽게 그에 비례할 수 밖에 없으므로 단순한 빈도수 비교는 의미가 없다. 이 때 코사인 유사도를 사용하면 단순한 횟수가 아니라 두 문서의 방향성 자체를 비교하게 되므로 조금 더 합리적인 결과를 얻을 수도 있다.
Millman. (1977). Elements of Differential Geometry: p3. ↩︎