logo

벡터공간의 텐서곱 📂선형대수

벡터공간의 텐서곱

빌드업1

  • 편의상 복소수 공간 $\mathbb{C}$에 대해서 전개하나, $\mathbb{R}$ 혹은 임의의 벡터공간이어도 무관하다.

유한 집합 $\Gamma$에서 복소수 공간으로의 함수들의 집합을 $\mathbb{C}^{\Gamma}$와 같이 표기하자.

$$ \mathbb{C}^{\Gamma} = \left\{ f : \Gamma \to \mathbb{C} \right\} $$

$\Gamma$를 $\mathbf{n} = \left\{ 1, 2, \dots, n \right\}$로 두자. 각각의 $1 \le i \le n$를 복소수 $z_{i} \in \mathbb{C}$로 보내는 함수를 $(z_{1}, \dots, z_{n})$으로 표기하면, 이는 $\mathbb{C}^{\mathbf{n}}$에 속하는 함수인 동시에, $n$-복소수 순서쌍 집합 $\mathbb{C}^{n}$의 벡터와도 같다.

$$ (z_{1}, \dots, z_{n}) : i \mapsto z_{i} $$

$$ \mathbb{C}^{n} := \mathbb{C}^{\mathbf{n}} = \left\{ (z_{1}, \dots, z_{n}) \vert z_{i} \in \mathbb{C} \right\} $$

즉 $v \in \mathbb{C}^{\Gamma}$는 $v : i \mapsto z_{i}$와 같은 함수로도 볼 수 있고, $v = (z_{1}, \dots, z_{\left| \Gamma \right|})$와 같은 순서쌍으로도 볼 수 있다.

유한집합 $\Gamma_{1}$, $\Gamma_{2}$에 대해서 두 벡터공간 $\mathbb{C}^{\Gamma_{1}}$과 $\mathbb{C}^{\Gamma_{2}}$의 텐서곱이란, $\Gamma_{1}$과 $\Gamma_{2}$의 곱공간 $\Gamma_{1} \times \Gamma_{2}$로부터 만들어지는 함수공간(벡터공간) $\mathbb{C}^{\Gamma_{1} \times \Gamma_{2}}$으로 정의된다.

정의2

유한 집합 $\Gamma_{1}$, $\Gamma_{2}$에 대해 두 벡터공간 $\mathbb{C}^{\Gamma_{1}}$과 $\mathbb{C}^{\Gamma_{2}}$의 텐서곱tensor product을 다음과 같이 정의한다.

$$ \mathbb{C}^{\Gamma_{1}} \otimes \mathbb{C}^{\Gamma_{2}} := \mathbb{C}^{\Gamma_{1} \times \Gamma_{2}} $$

여기서 $\Gamma_{1} \times \Gamma_{2}$는 $\Gamma_{1}$과 $\Gamma_{2}$의 곱공간이다.

설명

쉬운 예로 $\Gamma_{1} = \mathbf{2} = \left\{ 1, 2 \right\}$, $\Gamma_{2} = \mathbf{3} = \left\{ 1, 2, 3 \right\}$이라 하자. 그리고 $\Gamma$를 이 둘의 곱공간이라 하자.

$$ \Gamma = \Gamma_{1} \times \Gamma_{2} = \left\{ (1,1), (1,2), (1,3), (2,1), (2,2), (2,3) \right\} $$

이의 원소를 각각 다음과 같이 표기하자.

$$ e_{i} \otimes e_{j} = (i, j) $$

그러면 개요에서의 논리를 그대로 따라, $v \in \mathbb{C}^{\Gamma}$는 $(i,j) \mapsto \alpha_{ij}$와 같은 함수이면서 $\left( \alpha_{11}, a_{12}, a_{13}, a_{21}, a_{22}, a_{23} \right)$와 같은 순서쌍과 같다고 볼 수 있다. 따라서 $\mathbb{C}^{\Gamma}$는 $\left\{ e_{i} \otimes e_{j} : 1 \le i \le 2, 1 \le j \le 3 \right\}$를 기저로 갖는 벡터공간이다.

$$ \begin{align*} \mathbb{C}^{\Gamma} &= \left\{ \sum\limits_{i,j} \alpha_{i,j} e_{i} \otimes e_{j} : \alpha_{ij} \in \mathbb{C} \right\} \\ &= \left\{ \left( \alpha_{11}, a_{12}, a_{13}, a_{21}, a_{22}, a_{23} \right) : \alpha_{ij} \in \mathbb{C} \right\} \end{align*} $$

따라서 $\mathbb{C}^{6}$과 동형이다.

$$ \mathbb{C}^{\Gamma} = \mathbb{C}^{2} \otimes \mathbb{C}^{3} \cong \mathbb{C}^{6} $$

$\mathbb{C}$를 곱공간으로 묶으면 아래와 같이 변수의 자리가 늘어나고, 텐서곱으로 묶으면 변수의 인덱스의 자리가 늘어난다고 생각하면 쉬울 것 같다.

$$ z_{1} \in \mathbb{C}\qquad (z_{1},z_{2}) \in \mathbb{C} \times \mathbb{C}\qquad (z_{1}, z_{2}, z_{3}) \in \mathbb{C}\times \mathbb{C} \times \mathbb{C} $$

$$ (z_{1}, z_{2}) \in \mathbb{C}^{2} \qquad (z_{11}, z_{12}, z_{21}, z_{22}) \in \mathbb{C}^{2} \otimes \mathbb{C}^{2} \\[1em] (z_{111}, z_{112}, z_{121}, z_{122}, z_{211}, z_{212}, z_{221}, z_{222}) \in \mathbb{C}^{2} \otimes \mathbb{C}^{2} \otimes \mathbb{C}^{2} $$

각각의 $e_{i} \otimes e_{j}$는 $\mathbb{C}^{6}$의 표준기저의 벡터와 다음과 같이 대응된다.

$$ e_{1} \otimes e_{1} = \begin{bmatrix}1 \\ 0 \\ 0 \\ 0 \\ 0 \\ 0\end{bmatrix} \quad e_{1} \otimes e_{2} = \begin{bmatrix}0 \\ 1 \\ 0 \\ 0 \\ 0 \\ 0\end{bmatrix} \quad e_{1} \otimes e_{3} = \begin{bmatrix}0 \\ 0 \\ 1 \\ 0 \\ 0 \\ 0\end{bmatrix} \\[2em] e_{2} \otimes e_{1} = \begin{bmatrix}0 \\ 0 \\ 0 \\ 1 \\ 0 \\ 0\end{bmatrix} \quad e_{2} \otimes e_{2} = \begin{bmatrix}0 \\ 0 \\ 0 \\ 0 \\ 1 \\ 0\end{bmatrix} \quad e_{2} \otimes e_{3} = \begin{bmatrix}0 \\ 0 \\ 0 \\ 0 \\ 0 \\ 1\end{bmatrix} $$

행렬의 크로네커 곱으로 표현하면 다음과 같다.

$$ e_{1} \otimes e_{1} = \begin{bmatrix} 1 \\ 0 \end{bmatrix} \otimes \begin{bmatrix} 1 \\ 0 \\ 0 \end{bmatrix} = \begin{bmatrix} 1 \begin{bmatrix} 1 \\ 0 \\ 0 \end{bmatrix} \\[1.5em] 0 \begin{bmatrix} 1 \\ 0 \\ 0 \end{bmatrix} \end{bmatrix} = \begin{bmatrix} 1 \\ 0 \\ 0 \\ 0 \\ 0 \\ 0 \end{bmatrix} \quad e_{1} \otimes e_{2} = \begin{bmatrix} 1 \\ 0 \end{bmatrix} \otimes \begin{bmatrix} 0 \\ 1 \\ 0\end{bmatrix} = \begin{bmatrix} 1 \begin{bmatrix} 0 \\ 1 \\ 0 \end{bmatrix} \\[1.5em] 0 \begin{bmatrix} 0 \\ 1 \\ 0 \end{bmatrix} \end{bmatrix} = \begin{bmatrix} 0 \\ 1 \\ 0 \\ 0 \\ 0 \\ 0 \end{bmatrix} \\[2em] e_{1} \otimes e_{3} = \begin{bmatrix} 1 \\ 0 \end{bmatrix} \otimes \begin{bmatrix} 0 \\ 0 \\ 1 \end{bmatrix} = \begin{bmatrix} 1 \begin{bmatrix} 0 \\ 0 \\ 1 \end{bmatrix} \\[1.5em] 0 \begin{bmatrix} 0 \\ 0 \\ 1 \end{bmatrix} \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ 1 \\ 0 \\ 0 \\ 0 \end{bmatrix} \quad e_{2} \otimes e_{1} = \begin{bmatrix} 0 \\ 1 \end{bmatrix} \otimes \begin{bmatrix} 1 \\ 0 \\ 0 \end{bmatrix} = \begin{bmatrix} 0 \begin{bmatrix} 1 \\ 0 \\ 0 \end{bmatrix} \\[1.5em] 1 \begin{bmatrix} 1 \\ 0 \\ 0 \end{bmatrix} \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ 0 \\ 1 \\ 0 \\ 0 \end{bmatrix} \\[2em] e_{2} \otimes e_{2} = \begin{bmatrix} 0 \\ 1 \end{bmatrix} \otimes \begin{bmatrix} 0 \\ 1 \\ 0 \end{bmatrix} = \begin{bmatrix} 0 \begin{bmatrix} 0 \\ 1 \\ 0 \end{bmatrix} \\[1.5em] 1 \begin{bmatrix} 0 \\ 1 \\ 0 \end{bmatrix} \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 1 \\ 0 \end{bmatrix} \quad e_{2} \otimes e_{3} = \begin{bmatrix} 0 \\ 1 \end{bmatrix} \otimes \begin{bmatrix} 0 \\ 0 \\ 1 \end{bmatrix} = \begin{bmatrix} 0 \begin{bmatrix} 0 \\ 0 \\ 1 \end{bmatrix} \\[1.5em] 1 \begin{bmatrix} 0 \\ 0 \\ 1 \end{bmatrix} \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 0 \\ 1 \end{bmatrix} $$

또한 이로부터 다음이 성립함을 알 수 있다.

$$ \mathbb{C} \otimes \mathbb{C}^{n} \cong \mathbb{C}^{n} \qquad \mathbb{C} \otimes \mathbb{C} \cong \mathbb{C} $$

성질

  1. $\mathbb{C}^{n} \otimes \mathbb{C}^{m}$은 다음과 같은 두 연산에 대해서 벡터공간이다.
    • $(x_{1} \otimes y_{1}) + (x_{2} \otimes y_{2}) = (x_{1} + x_{2}) \otimes (y_{1} + y_{2})$
    • $\alpha (x \otimes y) = (\alpha x) \otimes y = x \otimes (\alpha y)$
  2. $\mathbb{C}^{n} \otimes \mathbb{C}^{m} \cong \mathbb{C}^{nm}$
  3. $\dim (\mathbb{C}^{n} \otimes \mathbb{C}^{m}) = \dim(\mathbb{C}^{n}) \cdot \dim(\mathbb{C}^{m}) = nm$

일반화

유한집합 $\Gamma_{i} (1 \le i \le r)$들에 대해, 벡터공간 $\mathbb{C}^{\Gamma_{i}}$들의 텐서곱을, 다음과 같이 정의한다.

$$ \mathbb{C}^{\Gamma_{1}} \otimes \cdots \otimes \mathbb{C}^{\Gamma_{r}} := \mathbb{C}^{\Gamma} = \mathbb{C}^{\Gamma_{1} \times \cdots \times \Gamma_{r}},\quad \Gamma = \Gamma_{1} \times \cdots \times \Gamma_{r} $$

$(j_{1}, \dots j_{r}) \in \prod\limits_{i} \Gamma_{i}$에 대응되는 기저벡터를 다음과 같이 표기한다. $( 1 \le j_{i} \le \left| \Gamma_{i} \right|)$

$$ e_{j_{1}} \otimes \cdots \otimes e_{j_{r}} $$

그러면 텐서곱은 다음과 같은 벡터공간이다. $\Gamma_{i}$의 기수를 $n_{i} = \left| \Gamma_{i} \right|$라고 하면,

$$ \begin{align*} \mathbb{C}^{\Gamma_{1}} \otimes \cdots \otimes \mathbb{C}^{\Gamma_{r}} &= \left\{ \sum\limits_{(j_{1}, \dots j_{r}) \in \prod\limits_{i} \Gamma_{i}} \alpha_{j_{1}, \dots, j_{r}} e_{j_{1}} \otimes \cdots \otimes e_{j_{r}}\right\} \\ &= \left\{ (\alpha_{1,\dots,1},\ \dots, \alpha_{n_{1},\ \dots, n_{r}}) : \alpha \in \mathbb{C} \right\} \\ &\cong \mathbb{C}^{\left| \Gamma \right|} \end{align*} $$

일반 벡터공간

유한차원 벡터공간 $V_{1}, \dots, V_{r}$이 주어졌다고 하자. 벡터공간 $V_{i}$의 기저 $\mathcal{B}_{i} = \left\{ v_{1}, v_{2}, \dots, v_{\dim V_{i}} \right\}$를 선택하면 다음과 같은 전단사 함수 $f_{i}$를 얻을 수 있다.

$$ \begin{align*} f _{i}: & V_{i} \to \mathbb{C}^{\dim V_{i}} \\ & \sum z_{j}v_{j} \mapsto (z_{1}, \dots, z_{\dim V_{i}}) \end{align*} $$

그러면 $V_{i}$들의 텐서곱을 다음과 같이 정의한다.

$$ \bigotimes\limits_{i=1}^{r} V_{i} = V_{1} \otimes \cdots \otimes V_{r} := \mathbb{C}^{\dim V_{1}} \otimes \cdots \otimes \mathbb{C}^{\dim V_{r}} $$

같이보기


  1. 김영훈·허재성, 양자 정보 이론 (2020), p3 ↩︎

  2. 김영훈·허재성, 양자 정보 이론 (2020), p31 ↩︎