logo

선형변환공간 📂선형대수

선형변환공간

정의1

벡터공간 $V$에서 $W$로의 모든 선형변환들의 집합을 $L(V,W)$라고 표기한다.

$$ L(V, W) = \mathcal{L}(V, W) := \left\{ T : V \to W\enspace |\enspace T \text{ is linear } \right\} $$

이를 다음과 같이 표기하기도 하며, 준동형사상 공간homomorphism space이라 한다.

$$ \operatorname{Hom}(V,W) = L(V, W) = \left\{ T : V \to W \text{ is linear} \right\} $$

또한 $W = V$일 때, 다음과 같이 표기하기도 하며 이를 준자기동형사상 공간endomorphsim space이라 한다.

$$ \operatorname{End}(V) = \operatorname{Hom}(V,V) = \operatorname{Hom}(V) = L(V,V) = L(V) $$

주로 쓰이는 표기는 $L$, $\mathcal{L}$이다.

설명

준동형homomorphic이라는 것은 말그대로 동형에 준하다는 것으로, 동형 사상의 조건에서 가역이라는 조건이 빠져있다.

$T, U \in L(V, W)$, $a \in \mathbb{R}$이라 하자. 두 선형변환의 합 $T+U$와 선형변환의 상수배 $aT$를 다음과 같이 정의한다.

$$ (T+U) (x) = T(x) + U(x) \quad \text{and} \quad (aT)(x) = aT(x) \quad \text{ for } x \in V, a \in \mathbb{R} $$

그러면 $aT+U$도 다시 $L(V, W)$에 속하는 선형변환이되며(두 연산에 대해 닫혀있다), $L(V, W)$는 위의 연산에 대해서 벡터공간이 된다.

기저

$V, W$를 각각 $n, m$ 차원 벡터공간이라고 하자. $\mathcal{B}_{V} = \left\{ v_{1}, \cdots, v_{n} \right\}$, $\mathcal{B}_{W} = \left\{ w_{1}, \cdots, w_{m} \right\}$를 각각 $V, W$의 기저라고 하자. 그리고 선형변환 $\phi_{ij}$를 다음과 같이 정의하자.

$$ \begin{equation} \begin{aligned} \phi_{ij} : V &\to W \\ v_{j^{\prime}} &\mapsto \begin{cases} w_{i} & \text{if } j^{\prime} = j \\ 0 & \text{if } j^{\prime} \ne j \\ \end{cases} \end{aligned} \end{equation} $$

그러면 집합 $\left\{ \phi_{ij} : 1 \le i \le m, 1 \le j \le n\right\}$는 $L(V, W)$의 기저가 된다.

선형독립

$$ \sum_{i,j} \lambda_{ij}\phi_{ij} = 0 \implies \lambda_{ij} = 0\quad \forall i,j $$

선형독립임을 보이는 것은 위의 식을 보이는 것이다. 벡터공간 $L(V,W)$의 영벡터는 영변환 $T_{0}$이므로 $\sum_{i,j} a_{ij}\phi_{ij} = T_{0}$라고하자. 양변에 $v_{1}$을 대입해보면 다음과 같다.

$$ \sum_{i,j} \lambda_{ij}\phi_{ij}(v_{1}) = \sum_{i}\lambda_{i1}w_{i} = T_{0}(v_{1}) = \mathbf{0} $$

$$ \implies \sum_{i}\lambda_{i1}w_{i} = \mathbf{0} $$

그런데 $\left\{ w_{i} \right\}$가 기저이므로, $\forall i$ $\lambda_{i1} = 0$이다. 같은 방식으로 $\sum_{i,j} \lambda_{ij}\phi_{ij} = T_{0}$의 양변에 모든 $v_{j}$를 대입하면 다음의 결과를 얻는다.

$$ \lambda_{ij} = 0 \quad \forall i, j $$

따라서 $\left\{ \phi_{ij} \right\}$는 선형독립이다.

생성

임의의 $T \in L(V, W)$가 $\phi_{ij}$들의 합으로 표현됨을 보이면 된다. $T$가 기저 $\mathcal{B}_{V}$를 다음과 같이 매핑한다고 하자.

$$ \begin{equation} T(v_{j}) = \sum_{i=1}^{m} b_{ij} w_{i} \end{equation} $$

그러면, $(1)$에 따라 $w_{i} = \sum_{k=1}^{n} \phi_{ik}(v_{j})$이므로, $x = \sum\limits_{j=1}^{n}a_{j}v_{j} \in V$에 대해서 $T(x)$는 다음과 같다.

$$ \begin{align*} T(x) &= T ( {\textstyle\sum_{j}}a_{j}v_{j} ) = \sum\limits_{j} a_{j}T(v_{j}) \\ &= \sum\limits_{j} a_{j} \sum\limits_{i}b_{ij}w_{i} = \sum\limits_{i,j} a_{j}b_{ij}w_{i} \\ &= \sum\limits_{i,j} a_{j}b_{ij}\sum_{k}\phi_{ik}(v_{j}) \end{align*} $$

그런데 여기서 어차피 $k \ne j$이면 $\phi_{ik}(v_{j}) = 0$이므로, 고정된 $j$에 대해서 다음이 성립한다.

$$ b_{ij}\sum_{k}\phi_{ik}(v_{j}) = \sum_{k}b_{ik}\phi_{ik}(v_{j}) $$

그러므로,

$$ \begin{align*} && T(x) &= \sum\limits_{i,j} a_{j}\sum_{k}b_{ik}\phi_{ik}(v_{j}) = \sum\limits_{i,j,k} b_{ik}\phi_{ik}(a_{j}v_{j}) \\ && &= \sum\limits_{i,k} b_{ik}\phi_{ik}(x) = \sum\limits_{i,j} b_{ij}\phi_{ij}(x) \\ && &= \left( \sum\limits_{i,j} b_{ij}\phi_{ij} \right)(x) \\ \implies && T &= \sum\limits_{i,j} b_{ij}\phi_{ij} \end{align*} $$

따라서 $\left\{ \phi_{ij} \right\}$는 $L(V, W)$를 생성하므로 기저이다. 또한 여기서 $b_{ij}$는 $(2)$에 의해서 $T$의 행렬표현 $\begin{bmatrix} T \end{bmatrix}_{\mathcal{B}_{V}}^{\mathcal{B}_{W}}$의 $(i,j)$성분임을 알 수 있다.

$$ \begin{bmatrix} T \end{bmatrix}_{\mathcal{B}_{V}}^{\mathcal{B}_{W}} = [b_{ij}] $$

쌍대기저에 대한 표현

위의 내용은 쌍대기저로 표현하면 훨씬 더 쉽다. $\mathcal{B}_{V}$의 쌍대기저를 $\left\{ v_{1}^{\ast}, \dots, v_{n}^{\ast} \right\}$라고 하자. 그러면 $w_{i}$와 $v_{j}^{\ast}$에 대응되는 다음과 같은 선형변환을 생각할 수 있다.

$$ \begin{align*} w_{i}v_{j}^{\ast} : V &\to W \\ x &\mapsto v_{j}^{\ast}(x)w_{i} \end{align*} \quad \forall i, j $$

이는 고정된 $i$에 대해서 $w_{i}$의 상수배로만 매핑하기 때문에 자명하게 랭크가 $1$인 선형변환이다. 또한 본질적으로 $(1)$의 정의와 다르지 않다. $\left\{ w_{i} \right\}$가 기저이므로, 인덱스 $i$에 대해서는 $\left\{ w_{i}v_{j}^{\ast} \right\}$가 선형독립인 것은 자명하다. 위에서 보였던 방식대로 $\sum_{j}\lambda_{ij}w_{i}v_{j}^{\ast}(v_{j^{\prime}}) = 0$을 확인해보면 인덱스 $j$에 대해서도 독립인 것을 알 수 있다. 또한 임의의 $T \in L(V, W)$는 $\left\{ w_{i}v_{j}^{\ast} \right\}$들의 선형결합으로 나타남을 쉽게 보일 수 있다. 이때 계수는 $T$의 행렬표현의 성분 $b_{ij}$이다. $x = \sum_{j}x_{j}v_{j} \in V$, $T(v_{j}) = \sum_{i}b_{ij}w_{i}$에 대해서,

$$ \begin{align*} T(x) &= T(\textstyle{\sum_{j}}x_{j}v_{j}) \\ &= \sum_{j} x_{j} T(v_{j}) \\ &= \sum_{j} x_{j} \sum_{i}b_{ij}w_{i} \\ &= \sum_{i,j} b_{ij}x_{j}w_{i} \\ &= \sum_{i,j} b_{ij}v_{j}^{\ast}(x)w_{i} \\ &= \sum_{i,j} b_{ij}w_{i}v_{j}^{\ast}(x) \\ &= (\textstyle{\sum_{i,j} b_{ij}w_{i}v_{j}^{\ast}})(x) \end{align*} $$

$$ \implies T = \sum_{i,j} b_{ij}w_{i}v_{j}^{\ast} $$


  1. Stephen H. Friedberg, Linear Algebra (4th Edition, 2002), p82 ↩︎