logo

선형변환공간 📂선형대수

선형변환공간

정의1

벡터공간 VV에서 WW로의 모든 선형변환들의 집합을 L(V,W)L(V,W)라고 표기한다.

L(V,W)=L(V,W):={T:VWT is linear } L(V, W) = \mathcal{L}(V, W) := \left\{ T : V \to W\enspace |\enspace T \text{ is linear } \right\}

이를 다음과 같이 표기하기도 하며, 준동형사상 공간homomorphism space이라 한다.

Hom(V,W)=L(V,W)={T:VW is linear} \operatorname{Hom}(V,W) = L(V, W) = \left\{ T : V \to W \text{ is linear} \right\}

또한 W=VW = V일 때, 다음과 같이 표기하기도 하며 이를 준자기동형사상 공간endomorphsim space이라 한다.

End(V)=Hom(V,V)=Hom(V)=L(V,V)=L(V) \operatorname{End}(V) = \operatorname{Hom}(V,V) = \operatorname{Hom}(V) = L(V,V) = L(V)

벡터공간 VV에서 VV로의 모든 자기동형사상 공간automorphsim space을 다음과 같이 표기한다.

Aut(V)=GL(V)={T:VV is linear and invertible} \operatorname{Aut}(V) = \operatorname{GL}(V) = \left\{ T : V \to V \text{ is linear and invertible} \right\}

설명

준동형homomorphic이라는 것은 말그대로 동형에 준하다는 것으로, 동형 사상의 조건에서 가역이라는 조건이 빠져있다.

T,UL(V,W)T, U \in L(V, W), aRa \in \mathbb{R}이라 하자. 두 선형변환의 합 T+UT+U와 선형변환의 상수배 aTaT를 다음과 같이 정의한다.

(T+U)(x)=T(x)+U(x)and(aT)(x)=aT(x) for xV,aR (T+U) (x) = T(x) + U(x) \quad \text{and} \quad (aT)(x) = aT(x) \quad \text{ for } x \in V, a \in \mathbb{R}

그러면 aT+UaT+U도 다시 L(V,W)L(V, W)에 속하는 선형변환이되며(두 연산에 대해 닫혀있다), L(V,W)L(V, W)는 위의 연산에 대해서 벡터공간이 된다.

기저

V,WV, W를 각각 n,mn, m 차원 벡터공간이라고 하자. BV={v1,,vn}\mathcal{B}_{V} = \left\{ v_{1}, \cdots, v_{n} \right\}, BW={w1,,wm}\mathcal{B}_{W} = \left\{ w_{1}, \cdots, w_{m} \right\}를 각각 V,WV, W의 기저라고 하자. 그리고 선형변환 ϕij\phi_{ij}를 다음과 같이 정의하자.

ϕij:VWvj{wiif j=j0if jj \begin{equation} \begin{aligned} \phi_{ij} : V &\to W \\ v_{j^{\prime}} &\mapsto \begin{cases} w_{i} & \text{if } j^{\prime} = j \\ 0 & \text{if } j^{\prime} \ne j \\ \end{cases} \end{aligned} \end{equation}

그러면 집합 {ϕij:1im,1jn}\left\{ \phi_{ij} : 1 \le i \le m, 1 \le j \le n\right\}L(V,W)L(V, W)기저가 된다.

선형독립

i,jλijϕij=0    λij=0i,j \sum_{i,j} \lambda_{ij}\phi_{ij} = 0 \implies \lambda_{ij} = 0\quad \forall i,j

선형독립임을 보이는 것은 위의 식을 보이는 것이다. 벡터공간 L(V,W)L(V,W)의 영벡터는 영변환 T0T_{0}이므로 i,jaijϕij=T0\sum_{i,j} a_{ij}\phi_{ij} = T_{0}라고하자. 양변에 v1v_{1}을 대입해보면 다음과 같다.

i,jλijϕij(v1)=iλi1wi=T0(v1)=0 \sum_{i,j} \lambda_{ij}\phi_{ij}(v_{1}) = \sum_{i}\lambda_{i1}w_{i} = T_{0}(v_{1}) = \mathbf{0}

    iλi1wi=0 \implies \sum_{i}\lambda_{i1}w_{i} = \mathbf{0}

그런데 {wi}\left\{ w_{i} \right\}가 기저이므로, i\forall i λi1=0\lambda_{i1} = 0이다. 같은 방식으로 i,jλijϕij=T0\sum_{i,j} \lambda_{ij}\phi_{ij} = T_{0}의 양변에 모든 vjv_{j}를 대입하면 다음의 결과를 얻는다.

λij=0i,j \lambda_{ij} = 0 \quad \forall i, j

따라서 {ϕij}\left\{ \phi_{ij} \right\}는 선형독립이다.

생성

임의의 TL(V,W)T \in L(V, W)ϕij\phi_{ij}들의 합으로 표현됨을 보이면 된다. TT가 기저 BV\mathcal{B}_{V}를 다음과 같이 매핑한다고 하자.

T(vj)=i=1mbijwi \begin{equation} T(v_{j}) = \sum_{i=1}^{m} b_{ij} w_{i} \end{equation}

그러면, (1)(1)에 따라 wi=k=1nϕik(vj)w_{i} = \sum_{k=1}^{n} \phi_{ik}(v_{j})이므로, x=j=1najvjVx = \sum\limits_{j=1}^{n}a_{j}v_{j} \in V에 대해서 T(x)T(x)는 다음과 같다.

T(x)=T(jajvj)=jajT(vj)=jajibijwi=i,jajbijwi=i,jajbijkϕik(vj) \begin{align*} T(x) &= T ( {\textstyle\sum_{j}}a_{j}v_{j} ) = \sum\limits_{j} a_{j}T(v_{j}) \\ &= \sum\limits_{j} a_{j} \sum\limits_{i}b_{ij}w_{i} = \sum\limits_{i,j} a_{j}b_{ij}w_{i} \\ &= \sum\limits_{i,j} a_{j}b_{ij}\sum_{k}\phi_{ik}(v_{j}) \end{align*}

그런데 여기서 어차피 kjk \ne j이면 ϕik(vj)=0\phi_{ik}(v_{j}) = 0이므로, 고정된 jj에 대해서 다음이 성립한다.

bijkϕik(vj)=kbikϕik(vj) b_{ij}\sum_{k}\phi_{ik}(v_{j}) = \sum_{k}b_{ik}\phi_{ik}(v_{j})

그러므로,

T(x)=i,jajkbikϕik(vj)=i,j,kbikϕik(ajvj)=i,kbikϕik(x)=i,jbijϕij(x)=(i,jbijϕij)(x)    T=i,jbijϕij \begin{align*} && T(x) &= \sum\limits_{i,j} a_{j}\sum_{k}b_{ik}\phi_{ik}(v_{j}) = \sum\limits_{i,j,k} b_{ik}\phi_{ik}(a_{j}v_{j}) \\ && &= \sum\limits_{i,k} b_{ik}\phi_{ik}(x) = \sum\limits_{i,j} b_{ij}\phi_{ij}(x) \\ && &= \left( \sum\limits_{i,j} b_{ij}\phi_{ij} \right)(x) \\ \implies && T &= \sum\limits_{i,j} b_{ij}\phi_{ij} \end{align*}

따라서 {ϕij}\left\{ \phi_{ij} \right\}L(V,W)L(V, W)를 생성하므로 기저이다. 또한 여기서 bijb_{ij}(2)(2)에 의해서 TT의 행렬표현 [T]BVBW\begin{bmatrix} T \end{bmatrix}_{\mathcal{B}_{V}}^{\mathcal{B}_{W}}(i,j)(i,j)성분임을 알 수 있다.

[T]BVBW=[bij] \begin{bmatrix} T \end{bmatrix}_{\mathcal{B}_{V}}^{\mathcal{B}_{W}} = [b_{ij}]

쌍대기저에 대한 표현

위의 내용은 쌍대기저로 표현하면 훨씬 더 쉽다. BV\mathcal{B}_{V}의 쌍대기저를 {v1,,vn}\left\{ v_{1}^{\ast}, \dots, v_{n}^{\ast} \right\}라고 하자. 그러면 wiw_{i}vjv_{j}^{\ast}에 대응되는 다음과 같은 선형변환을 생각할 수 있다.

wivj:VWxvj(x)wii,j \begin{align*} w_{i}v_{j}^{\ast} : V &\to W \\ x &\mapsto v_{j}^{\ast}(x)w_{i} \end{align*} \quad \forall i, j

이는 고정된 ii에 대해서 wiw_{i}의 상수배로만 매핑하기 때문에 자명하게 랭크11인 선형변환이다. 또한 본질적으로 (1)(1)의 정의와 다르지 않다. {wi}\left\{ w_{i} \right\}가 기저이므로, 인덱스 ii에 대해서는 {wivj}\left\{ w_{i}v_{j}^{\ast} \right\}가 선형독립인 것은 자명하다. 위에서 보였던 방식대로 jλijwivj(vj)=0\sum_{j}\lambda_{ij}w_{i}v_{j}^{\ast}(v_{j^{\prime}}) = 0을 확인해보면 인덱스 jj에 대해서도 독립인 것을 알 수 있다. 또한 임의의 TL(V,W)T \in L(V, W){wivj}\left\{ w_{i}v_{j}^{\ast} \right\}들의 선형결합으로 나타남을 쉽게 보일 수 있다. 이때 계수는 TT의 행렬표현의 성분 bijb_{ij}이다. x=jxjvjVx = \sum_{j}x_{j}v_{j} \in V, T(vj)=ibijwiT(v_{j}) = \sum_{i}b_{ij}w_{i}에 대해서,

T(x)=T(jxjvj)=jxjT(vj)=jxjibijwi=i,jbijxjwi=i,jbijvj(x)wi=i,jbijwivj(x)=(i,jbijwivj)(x) \begin{align*} T(x) &= T(\textstyle{\sum_{j}}x_{j}v_{j}) \\ &= \sum_{j} x_{j} T(v_{j}) \\ &= \sum_{j} x_{j} \sum_{i}b_{ij}w_{i} \\ &= \sum_{i,j} b_{ij}x_{j}w_{i} \\ &= \sum_{i,j} b_{ij}v_{j}^{\ast}(x)w_{i} \\ &= \sum_{i,j} b_{ij}w_{i}v_{j}^{\ast}(x) \\ &= (\textstyle{\sum_{i,j} b_{ij}w_{i}v_{j}^{\ast}})(x) \end{align*}

    T=i,jbijwivj \implies T = \sum_{i,j} b_{ij}w_{i}v_{j}^{\ast}


  1. Stephen H. Friedberg, Linear Algebra (4th Edition, 2002), p82 ↩︎