logo

行列の直和 📂行列代数

行列の直和

定義1

二つの行列 $B \in M_{m\times n}$, $C \in M_{p\times q}$の直和direct sumを次の $(m+p) \times (n+q)$行列 $A$として定義し、$B \oplus C$と表記する。

$$ A = B \oplus C := \begin{bmatrix} b_{11} & \cdots & b_{1n} & 0 & \cdots & 0 \\ \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ b_{m1} & \cdots & b_{mn} & 0 & \cdots & 0 \\ 0 & \cdots & 0 & c_{11} & \cdots & c_{1q} \\ \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ 0 & \cdots & 0 & c_{p1} & \cdots & c_{pq} \\ \end{bmatrix} $$

$$ A_{ij} := \begin{cases} [B]_{ij} & \text{for } 1\le i \le m,\ 1\le j \le n \\ [C]_{(i-m),(j-n)} & \text{for } m+1\le i \le p+m,\ n+1\le j \le q+n \\ 0 & \text{otherwise} \end{cases} $$

ブロック行列形式で表すと、

$$ A = \begin{bmatrix} B & O_{mq} \\ O_{pn} & C \end{bmatrix} $$

このとき、$O$は零行列だ。

一般化

行列 $B_{1}, B_{2}, \dots, B_{k}$の直和を以下のように再帰的に定義する。

$$ B_{1} \oplus B_{2} \oplus \cdots \oplus B_{k} := (B_{1} \oplus B_{2} \oplus \cdots \oplus B_{k-1}) \oplus B_{k} $$

$A = B_{1} \oplus B_{2} \oplus \cdots \oplus B_{k}$ならば、

$$ A = \begin{bmatrix} B_{1} & O & \cdots & O \\ O & B_{2} & \cdots & O \\ \vdots & \vdots & \ddots & \vdots \\ O & O & \cdots & B_{k} \\ \end{bmatrix} $$

説明

簡単に言えば、行列でブロック対角行列を作ることだ。

$$ B_{1} \oplus B_{2} \oplus \cdots \oplus B_{k} = \href{../2048}{\diag} \begin{bmatrix} B_{1} \\ B_{2} \\ \vdots \\ B_{k} \end{bmatrix} $$

具体的な例として$B_{1} = \begin{bmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \end{bmatrix}$、$B_{2} = \begin{bmatrix} 2 \end{bmatrix}$、$B_{3} = \begin{bmatrix} 3 & 3 & 3 \\ 3 & 3 & 3 \\ 3 & 3 & 3 \end{bmatrix}$とすると、

$$ B_{1} \oplus B_{2} \oplus B_{3} = \begin{bmatrix} 1 & 1 & 1 & 0 & 0 & 0 & 0 \\ 1 & 1 & 1 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 2 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 3 & 3 & 3 \\ 0 & 0 & 0 & 0 & 3 & 3 & 3 \\ 0 & 0 & 0 & 0 & 3 & 3 & 3 \end{bmatrix} $$

通常の場合、行列の直和よりも部分空間の直和に先に触れるかもしれないが、以下の定理を見ると、このような定義がなぜ直和と呼ばれるか十分納得がいく。線形変換$T : V \to V$が与えられたとき、$V = W_{1} \oplus \cdots \oplus W_{k}$であれば、$T$の行列表現射影$T|_{W_{i}}$の行列表現の直和として現れるため、このような行列の演算を直和と呼ぶ理由はないわけがない。

定理

$T : V \to V$を有限次元ベクトル空間$V$上の線形変換とする。$W_{1}, \dots, W_{k}$を$T$-不変部分空間、$V$を$W_{i}$たちの直和とする。

$$ V = W_{1} \oplus \cdots \oplus W_{k} $$

$\beta_{i}$を$W_{i}$の順序基底、$\beta = \beta_{1} \cup \cdots \cup \beta_{k}$とする。(その場合、$\beta$は$V$の基底である)そして、$A = \begin{bmatrix} T \end{bmatrix}_{\beta}$、$B_{i} = \begin{bmatrix} T|_{W}\end{bmatrix}_{\beta_{i}}$とすると、次が成り立つ。

$$ A = B_{1} \oplus B_{2} \oplus \cdots \oplus B_{k} = \begin{bmatrix} B_{1} & O & \cdots & O \\ O & B_{2} & \cdots & O \\ \vdots & \vdots & \ddots & \vdots \\ O & O & \cdots & B_{k} \\ \end{bmatrix} $$

証明

数学的帰納法で証明する。

  • $k=2$のとき成り立つ。

    $\mathbf{v} \in \beta_{1}$とする。$\beta$が$V$の基底なので、$T \mathbf{v} \in V$は$\beta$の線形結合として表される。しかし$W_{1}$が不変部分空間なので、$T \mathbf{v} \in W_{1}$が成り立つ。したがって、$T \mathbf{v}$の線形結合で$\beta_{2}$の要素の係数は全部$0$である。これは、$n = \dim(W_{1})$のとき、座標ベクトル$\begin{bmatrix} T \mathbf{v} \end{bmatrix}_{\beta}$の成分が$n+1$番目以降は全部$0$であることを意味する。したがって、 $$ \begin{bmatrix} T|_{W_{1}}\mathbf{v}\end{bmatrix}_{\beta_{1}} = \begin{bmatrix} b_{1} \\ \vdots \\ b_{n} \end{bmatrix} \quad \text{and} \quad \begin{bmatrix} T \mathbf{v} \end{bmatrix}_{\beta} = \begin{bmatrix} b_{1} \\ \vdots \\ b_{n} \\ 0 \\ \vdots \\ 0 \end{bmatrix} $$ 同様に、$\mathbf{v} \in \beta_{2}$、$m = \dim(W_{2})$ならば、$T \mathbf{v} \in W_{2}$であり、座標ベクトルは以下のようになる。 $$ \begin{bmatrix} T|_{W_{2}}\mathbf{v}\end{bmatrix}_{\beta_{2}} = \begin{bmatrix} b_{n+1} \\ \vdots \\ b_{n+m} \end{bmatrix} \quad \text{and} \quad \begin{bmatrix} T \mathbf{v} \end{bmatrix}_{\beta} = \begin{bmatrix} 0 \\ \vdots \\ 0 \\ b_{n+1} \\ \vdots \\ b_{n+m} \end{bmatrix} $$ したがって、 $$ \begin{bmatrix} T \end{bmatrix}_{\beta} = \begin{bmatrix} \begin{bmatrix} T|_{W_{1}}\end{bmatrix}_{\beta_{1}} & O \\ O & \begin{bmatrix} T|_{W_{2}}\end{bmatrix}_{\beta_{2}} \end{bmatrix} $$

  • $k-1$のとき成り立つなら、$k$のときも成り立つ。

    $W = W_{1} \oplus \cdots \oplus W_{k-1}$、$\beta_{W} = \beta_{1} \cup \cdots \cup \beta_{k-1}$とする。$k-1$のとき成り立つと仮定すると、 $$ \begin{bmatrix} T|_{W} \end{bmatrix}_{\beta_{W}} = \begin{bmatrix} \begin{bmatrix} T|_{W_{1}}\end{bmatrix}_{\beta_{1}} & \cdots & O \\ \vdots & \ddots & \vdots \\ O &\cdots & \begin{bmatrix} T|_{W_{k-1}}\end{bmatrix}_{\beta_{k-1}} \end{bmatrix} $$ しかし$V = W \oplus W_{k}$、$\beta = \beta_{W} \cup \beta_{k}$であり、$k=2$のとき成り立つので、 $$ \begin{bmatrix} T \end{bmatrix}_{\beta} = \begin{bmatrix} \begin{bmatrix} T|_{W}\end{bmatrix}_{\beta_{W}} & O \\ O & \begin{bmatrix} T|_{W_{k}}\end{bmatrix}_{\beta_{k}} \end{bmatrix} = \begin{bmatrix} \begin{bmatrix} T|_{W_{1}}\end{bmatrix}_{\beta_{1}} & \cdots & O & O \\ \vdots & \ddots & \vdots & \vdots \\ O & \cdots & \begin{bmatrix} T|_{W_{k-1}}\end{bmatrix}_{\beta_{k-1}} & O \\ O & \cdots & O & \begin{bmatrix} T|_{W_{k}}\end{bmatrix}_{\beta_{k}} \\ \end{bmatrix} $$


  1. Stephen H. Friedberg, Linear Algebra (4th Edition, 2002), p320-321 ↩︎