텐서곱의 곱 벡터 📂선형대수

텐서곱의 곱 벡터

Product Vector in Tensor Product

빌드업1

  • 편의상 복소수 공간 $\mathbb{C}$에 대해서 전개하나, $\mathbb{R}$ 혹은 임의의 벡터공간이어도 무관하다.

유한 집합 $\Gamma$에서 복소수 공간으로의 함수들의 집합을 $\mathbb{C}^{\Gamma}$와 같이 표기하자.

$$ \mathbb{C}^{\Gamma} = \left\{ f : \Gamma \to \mathbb{C} \right\} $$

$\Gamma = \mathbf{n} = \left\{ 1, \dots, n \right\}$일 때, 실질적으로 $\mathbb{C}^{\mathbf{n}} = \mathbb{C}^{n}$이 되고, 벡터공간의 텐서곱은 다음과 같이 정의된다.

$$ \mathbb{C}^{\Gamma_{1}} \otimes \mathbb{C}^{\Gamma_{2}} := \mathbb{C}^{\Gamma_{1} \times \Gamma_{2}} $$

$v_{i} \in \mathbb{C}^{\Gamma_{i}}$이고 $n_{i} = \left| \Gamma_{i} \right|$라고 하자. $\mathbb{C}^{\Gamma_{i}}$에 대응되는 표준기저를 각각 $\left\{ e_{j_{i}} \right\}_{j_{i} \in \Gamma_{i}}$라고 하자. 그러면 $v_{i}$는 다음과 같이 표현된다.

$$ \begin{align*} v_{1} &: \left\{ 1, \dots, n_{1} \right\} \to \mathbb{C} &&& v_{2} &: \left\{ 1, \dots, n_{2} \right\} \to \mathbb{C} \\ v_{1} &= (v_{1}(1), \dots, v_{1}(n_{1})) \in \mathbb{C}^{n_{1}} &&& v_{2} &= (v_{2}(1), \dots, v_{2}(n_{2})) \in \mathbb{C}^{n_{2}} \\ & = \sum \limits_{j_{1} = 1}^{n_{1}}v_{1}(j_{1}) e_{j_{1}} &&&& = \sum \limits_{j_{2} = 1}^{n_{2}}v_{2}(j_{2}) e_{j_{2}} \end{align*} $$

텐서곱 $\mathbb{C}^{\Gamma_{1}} \otimes \mathbb{C}^{\Gamma_{2}}$의 원소를 $v_{1} \otimes v_{2}$라고 표기하고 이를 곱 벡터라고 한다.

정의

$v_{1}$와 $v_{2}$의 곱 벡터product vector $v_{1} \otimes v_{2}$를 다음과 같이 정의한다.

$$ \begin{align*} v_{1} \otimes v_{2} &= \left( \sum \limits_{j_{1} \in \Gamma_{1}}v_{1}(j_{1}) e_{j_{1}} \right) \otimes \left( \sum \limits_{j_{2} \in \Gamma_{2}}v_{2}(j_{2}) e_{j_{2}} \right) \\ &:= \sum\limits_{(j_{1}, j_{2}) \in \Gamma_{1} \times \Gamma_{2}} \left( \prod\limits_{i=1}^{2} v_{i}(j_{i}) \right) e_{j_{1}} \otimes e_{j_{2}} \end{align*} $$

이때 $v_{1} \otimes v_{2}$는 텐서곱의 정의에 의해 $\mathbb{C}^{\Gamma_{1}} \otimes \mathbb{C}^{\Gamma_{2}}$의 원소가 된다.

$$ v_{1} \otimes v_{2} := \sum\limits_{(j_{1}, j_{2}) \in \Gamma_{1} \times \Gamma_{2}} \left( \prod\limits_{i=1}^{2} v_{i}(j_{i}) \right) e_{j_{1}} \otimes e_{j_{2}} \in \mathbb{C}^{\Gamma_{1}} \otimes \mathbb{C}^{\Gamma_{2}} $$

설명

쉬운 예로 위의 정의를 구체적으로 다시 풀어보자. $\Gamma_{1} = \left\{ 1, 2 \right\}$, $\Gamma_{2} = \left\{ 1, 2, 3 \right\}$이라 하자. $v_{i} \in \mathbb{C}^{\Gamma_{i}}$라고 하자. $\mathbb{C}^{\Gamma_{1}} = \mathbb{C}^{2}$에 대응되는 표준기저를 $\left\{ e_{j_{1}} \right\}_{j_{1} \in \Gamma_{1}}$, $\mathbb{C}^{\Gamma_{2}} = \mathbb{C}^{3}$에 대응되는 표준기저를 $\left\{ e_{j_{2}} \right\}_{j_{2} \in \Gamma_{2}}$라고 하자. $v_{1}$, $v_{2}$는 다음과 같다.

$$ \begin{align*} v_{1} &: \left\{ 1, 2 \right\} \to \mathbb{C} &&& v_{2} &: \left\{ 1, 2, 3 \right\} \to \mathbb{C} \\ v_{1} &= (v_{1}(1), v_{1}(2)) \in \mathbb{C}^{2} &&& v_{2} &= (v_{2}(1), v_{2}(2), v_{2}(3)) \in \mathbb{C}^{3} \\ & = \sum \limits_{j_{1} = 1}^{2}v_{1}(j_{1}) e_{j_{1}} &&&& = \sum \limits_{j_{2} = 1}^{3}v_{2}(j_{2}) e_{j_{2}} \end{align*} $$

그러면 $v_{1}$과 $v_{2}$의 곱 벡터는 다음과 같다.

$$ \begin{align*} v_{1} \otimes v_{2} &= (v_{1}(1), v_{1}(2)) \otimes (v_{2}(1), v_{2}(2), v_{2}(3)) \\ &= \left( \sum \limits_{j_{1} = 1}^{2} v_{1}(j_{1}) e_{j_{1}} \right) \otimes \left( \sum \limits_{j_{2} = 1}^{3} v_{2}(j_{2}) e_{j_{2}} \right) \\ &:= \sum\limits_{(j_{1}, j_{2}) \in \Gamma_{1} \times \Gamma_{2}} \left( \prod\limits_{i=1}^{2} v_{i}(j_{i}) \right) e_{j_{1}} \otimes e_{j_{2}} \in \mathbb{C}^{\Gamma_{1}} \otimes \mathbb{C}^{\Gamma_{2}} \\ &= v_{1}(1)v_{2}(1)e_{1} \otimes e_{1} + v_{1}(1)v_{2}(2)e_{1} \otimes e_{2} + v_{1}(1)v_{2}(3)e_{1} \otimes e_{3} \\ &\quad + v_{1}(2)v_{2}(1)e_{1} \otimes e_{1} + v_{1}(2)v_{2}(2)e_{1} \otimes e_{2} + v_{1}(2)v_{2}(3)e_{1} \otimes e_{3} \\ &= \left( v_{1}(1)v_{2}(1), v_{1}(1)v_{2}(2), v_{1}(1)v_{2}(3), v_{1}(2)v_{2}(1), v_{1}(2)v_{2}(2), v_{1}(2)v_{2}(3) \right) \\ &\in \mathbb{C}^{6} \cong \mathbb{C}^{\Gamma_{1}} \otimes \mathbb{C}^{\Gamma_{2}} \end{align*} $$

$v_{1} \otimes v_{2}$의 성분을 잘 살펴보면 이것이 행렬과 관련이 있을 것이라는 짐작을 할 수 있다.

좌표행렬

행렬공간 $M_{m \times n}(\mathbb{C})$를 생각하자. $E_{ij}$를 $(i,j)$ 성분만 $1$이고 나머지는 모두 $0$인 $m \times n$행렬이라고 하면, $\left\{ E_{ij} \right\}$는 $M_{m\times n}(\mathbb{C})$의 기저가 된다. $\phi$를 텐서곱 $\mathbb{C}^{m} \otimes \mathbb{C}^{n}$의 기저벡터 $e_{i} \otimes e_{j}$를 $E_{ij}$로 보내는 선형변환이라고 하자.

$$ \begin{align*} \phi : \mathbb{C}^{m} \otimes \mathbb{C}^{n} &\to M_{m \times n} (\mathbb{C}) \\ e_{i} \otimes e_{j} &\mapsto E_{ij} \end{align*} $$

이는 기저를 기저로 사상하므로 동형사상이 된다. 두 벡터 $v \in \mathbb{C}^{m}$, $w \in \mathbb{C}^{n}$가 다음과 같다고 하면

$$ v = \sum_{i} \alpha_{i}e_{i} = \begin{bmatrix} \alpha_{1} \\ \vdots \\ \alpha_{m} \end{bmatrix} \qquad w = \sum_{j} \beta_{j}e_{j} = \begin{bmatrix} \beta_{1} \\ \vdots \\ \beta_{n} \end{bmatrix} $$

$v, w$의 곱벡터를 $\phi$로 보내면 다음과 같다.

$$ \begin{align*} \phi( v \otimes w ) &= \phi \left( \sum\limits_{i,j} \alpha_{i}\beta_{j} e_{i} \otimes e_{j} \right) \\ &= \sum\limits_{i,j} \alpha_{i}\beta_{j} \phi \left( e_{i} \otimes e_{j} \right) \\ &= \sum\limits_{i,j} \alpha_{i}\beta_{j} E_{ij} \\ &= \begin{bmatrix} \alpha_{1}\beta_{1} & \cdots & \alpha_{1}\beta_{n} \\ \vdots & \ddots & \vdots \\ \alpha_{m}\beta_{1} & \cdots & \alpha_{m}\beta_{n} \\ \end{bmatrix} \\ &= \begin{bmatrix} \alpha_{1} \\ \vdots \\ \alpha_{m} \end{bmatrix} \begin{bmatrix} \beta_{1} & \cdots & \beta_{n} \end{bmatrix} \\ &= vw^{T} \end{align*} $$

이는 각 성분이 $\alpha_{i}\beta_{j}$인 행렬이다. 따라서 $\phi$에 의해 곱 벡터 $v \otimes w$는 하나의 $m \times n$과 대응된다. 행렬 $\phi(v \otimes w) = vw^{T}$를 표준기저에 대한 $v \otimes w$의 좌표 행렬coordinate matrix이라 한다. 이는 벡터의 좌표벡터와 같은 개념으로 볼 수 있다.

일반화

유한집합 $\Gamma_{i} (1 \le i \le r)$, $\Gamma = \Gamma_{1} \times \cdots \times \Gamma_{r}$, $v_{i} \in \mathbb{C}^{\Gamma_{i}}$에 대해서, $v_{i}$들의 곱 벡터를 다음과 같이 정의한다.

$$ \begin{align*} v_{1} \otimes \cdots \otimes v_{r} &= \left( \sum \limits_{j_{1} \in \Gamma_{1}}v_{1}(j_{1}) e_{j_{1}} \right) \otimes \cdots \otimes \left( \sum \limits_{j_{r} \in \Gamma_{r}}v_{r}(j_{r}) e_{j_{r}} \right) \\ &:= \sum\limits_{(j_{1}, \dots, j_{r}) \in \Gamma} \left( \prod\limits_{i=1}^{r} v_{i}(j_{i}) \right) e_{j_{1}} \otimes \cdots \otimes e_{j_{r}} \\ &= \in \mathbb{C}^{\Gamma_{1}} \otimes \cdots \otimes \mathbb{C}^{\Gamma_{r}} \end{align*} $$

같이보기


  1. 김영훈·허재성, 양자 정보 이론 (2020), p32-33 ↩︎

댓글