행렬의 직합 📂행렬대수

행렬의 직합

The Direct Sum of Matrices

정의1

행렬 $B \in M_{m\times n}$, $C \in M_{p\times q}$의 직합direct sum을 다음과 같은 $(m+p) \times (n+q)$ 행렬 $A$로 정의하고, $B \oplus C$라 표기한다.

$$ A = \begin{bmatrix} b_{11} & \cdots & b_{1n} & 0 & \cdots & 0 \\ \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ b_{m1} & \cdots & b_{mn} & 0 & \cdots & 0 \\ 0 & \cdots & 0 & c_{11} & \cdots & c_{1q} \\ \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ 0 & \cdots & 0 & c_{p1} & \cdots & c_{pq} \\ \end{bmatrix} $$

$$ A_{ij} := \begin{cases} [B]_{ij} & \text{for } 1\le i \le m,\ 1\le j \le n \\ [C]_{(i-m),(j-n)} & \text{for } m+1\le i \le p+m,\ n+1\le j \le q+n \\ 0 & \text{otherwise} \end{cases} $$

블록행렬 꼴로 나타내면,

$$ A = \begin{bmatrix} B & O_{mq} \\ O_{pn} & C \end{bmatrix} $$

이때 $O$는 영행렬이다.

일반화

행렬 $B_{1}, B_{2}, \dots, B_{k}$의 직합을 다음과 같이 재귀적으로recursively 정의한다.

$$ B_{1} \oplus B_{2} \oplus \cdots \oplus B_{k} := (B_{1} \oplus B_{2} \oplus \cdots \oplus B_{k-1}) \oplus B_{k} $$

$A = B_{1} \oplus B_{2} \oplus \cdots \oplus B_{k}$이면,

$$ A = \begin{bmatrix} B_{1} & O & \cdots & O \\ O & B_{2} & \cdots & O \\ \vdots & \vdots & \ddots & \vdots \\ O & O & \cdots & B_{k} \\ \end{bmatrix} $$

설명

쉽게 말해서 행렬들로 블록대각행렬을 만드는 것이다.

$$ B_{1} \oplus B_{2} \oplus \cdots \oplus B_{k} = \href{../2048}{\diag} \begin{bmatrix} B_{1} \\ B_{2} \\ \vdots \\ B_{k} \end{bmatrix} $$

구체적인 예로 $B_{1} = \begin{bmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \end{bmatrix}$, $B_{2} = \begin{bmatrix} 2 \end{bmatrix}$, $B_{3} = \begin{bmatrix} 3 & 3 & 3 \\ 3 & 3 & 3 \\ 3 & 3 & 3 \end{bmatrix}$이라 하면,

$$ B_{1} \oplus B_{2} \oplus B_{3} = \begin{bmatrix} 1 & 1 & 1 & 0 & 0 & 0 & 0 \\ 1 & 1 & 1 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 2 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 3 & 3 & 3 \\ 0 & 0 & 0 & 0 & 3 & 3 & 3 \\ 0 & 0 & 0 & 0 & 3 & 3 & 3 \end{bmatrix} $$

보통의 경우에 행렬의 직합보다 부분공간의 직합을 먼저 접할텐데, 아래의 정리를 보면 이러한 정의가 왜 직합으로 불리는지 충분히 납득할 수 있다. 선형변환 $T : V \to V$가 주어졌을 때 $V = W_{1} \oplus \cdots \oplus W_{k}$이면, $T$의 행렬표현축소사상 $T|_{W_{i}}$의 행렬표현들의 직합으로 나타나므로, 이러한 행렬의 연산을 직합이라 부르지 않을 이유가 없다.

정리

$T : V \to V$를 유한차원 벡터공간 $V$ 위의 선형변환이라고 하자. $W_{1}, \dots, W_{k}$를 $T$-불변 부분공간, $V$를 $W_{i}$들의 직합이라 하자.

$$ V = W_{1} \oplus \cdots \oplus W_{k} $$

$\beta_{i}$를 $W_{i}$의 순서기저, $\beta = \beta_{1} \cup \cdots \cup \beta_{k}$라고 하자.(그러면 $\beta$는 $V$의 기저이다) 그리고 $A = \begin{bmatrix} T \end{bmatrix}_{\beta}$, $B_{i} = \begin{bmatrix} T|_{W}\end{bmatrix}_{\beta_{i}}$라 하면, 다음이 성립한다.

$$ A = B_{1} \oplus B_{2} \oplus \cdots \oplus B_{k} = \begin{bmatrix} B_{1} & O & \cdots & O \\ O & B_{2} & \cdots & O \\ \vdots & \vdots & \ddots & \vdots \\ O & O & \cdots & B_{k} \\ \end{bmatrix} $$

증명

수학적 귀납법으로 증명한다.

  • $k=2$일 때 성립한다.

    $\mathbf{v} \in \beta_{1}$이라 하자. $\beta$가 $V$의 기저이므로, $T \mathbf{v} \in V$는 $\beta$의 선형결합으로 표현된다. 그런데 $W_{1}$가 불변부분공간이므로, $T \mathbf{v} \in W_{1}$이다. 따라서 $T \mathbf{v}$의 선형결합에서 $\beta_{2}$의 원소의 계수는 모두 $0$이다. 이는, $n = \dim(W_{1})$일 때, 좌표벡터 $\begin{bmatrix} T \mathbf{v} \end{bmatrix}_{\beta}$의 성분이 $n+1$번째 이후로는 모두 $0$임을 의미한다. 따라서, $$ \begin{bmatrix} T|_{W_{1}}\mathbf{v}\end{bmatrix}_{\beta_{1}} = \begin{bmatrix} b_{1} \\ \vdots \\ b_{n} \end{bmatrix} \quad \text{and} \quad \begin{bmatrix} T \mathbf{v} \end{bmatrix}_{\beta} = \begin{bmatrix} b_{1} \\ \vdots \\ b_{n} \\ 0 \\ \vdots \\ 0 \end{bmatrix} $$ 마찬가지로 $\mathbf{v} \in \beta_{2}$, $m = \dim(W_{2})$라면, $T \mathbf{v} \in W_{2}$이고 좌표벡터는 다음과 같다. $$ \begin{bmatrix} T|_{W_{2}}\mathbf{v}\end{bmatrix}_{\beta_{2}} = \begin{bmatrix} b_{n+1} \\ \vdots \\ b_{n+m} \end{bmatrix} \quad \text{and} \quad \begin{bmatrix} T \mathbf{v} \end{bmatrix}_{\beta} = \begin{bmatrix} 0 \\ \vdots \\ 0 \\ b_{n+1} \\ \vdots \\ b_{n+m} \end{bmatrix} $$ 따라서, $$ \begin{bmatrix} T \end{bmatrix}_{\beta} = \begin{bmatrix} \begin{bmatrix} T|_{W_{1}}\end{bmatrix}_{\beta_{1}} & O \\ O & \begin{bmatrix} T|_{W_{2}}\end{bmatrix}_{\beta_{2}} \end{bmatrix} $$

  • $k-1$일 때 성립하면, $k$일 때도 성립한다.

    $W = W_{1} \oplus \cdots \oplus W_{k-1}$, $\beta_{W} = \beta_{1} \cup \cdots \cup \beta_{k-1}$라고 하자. $k-1$일 때 성립한다고 가정했으므로, $$ \begin{bmatrix} T|_{W} \end{bmatrix}_{\beta_{W}} = \begin{bmatrix} \begin{bmatrix} T|_{W_{1}}\end{bmatrix}_{\beta_{1}} & \cdots & O \\ \vdots & \ddots & \vdots \\ O &\cdots & \begin{bmatrix} T|_{W_{k-1}}\end{bmatrix}_{\beta_{k-1}} \end{bmatrix} $$ 그런데 $V = W \oplus W_{k}$, $\beta = \beta_{W} \cup \beta_{k}$이고 $k=2$일 때 성립하므로, $$ \begin{bmatrix} T \end{bmatrix}_{\beta} = \begin{bmatrix} \begin{bmatrix} T|_{W}\end{bmatrix}_{\beta_{W}} & O \\ O & \begin{bmatrix} T|_{W_{k}}\end{bmatrix}_{\beta_{k}} \end{bmatrix} = \begin{bmatrix} \begin{bmatrix} T|_{W_{1}}\end{bmatrix}_{\beta_{1}} & \cdots & O & O \\ \vdots & \ddots & \vdots & \vdots \\ O & \cdots & \begin{bmatrix} T|_{W_{k-1}}\end{bmatrix}_{\beta_{k-1}} & O \\ O & \cdots & O & \begin{bmatrix} T|_{W_{k}}\end{bmatrix}_{\beta_{k}} \\ \end{bmatrix} $$


  1. Stephen H. Friedberg, Linear Algebra (4th Edition, 2002), p320-321 ↩︎

댓글