logo

線形変換空間 📂線形代数

線形変換空間

定義1

ベクトル空間 $V$から $W$への全ての線形変換の集合を $L(V,W)$と表示する。

$$ L(V, W) = \mathcal{L}(V, W) := \left\{ T : V \to W\enspace |\enspace T \text{ is linear } \right\} $$

これを以下のように表示し、準同型写像homomorphism space空間という。

$$ \operatorname{Hom}(V,W) = L(V, W) = \left\{ T : V \to W \text{ is linear} \right\} $$

また、$W = V$の時、以下のように表示し、これを準自己同型写像 空間endomorphsim spaceという。

$$ \operatorname{End}(V) = \operatorname{Hom}(V,V) = \operatorname{Hom}(V) = L(V,V) = L(V) $$

主に使われる表示は $L$、$\mathcal{L}$だ。

説明

準同型homomorphicとは、文字通り、同型に準じるということであり、可逆であるという条件がないことを意味する。

$T, U \in L(V, W)$、$a \in \mathbb{R}$とする。二つの線形変換の和 $T+U$と線形変換のスカラー倍 $aT$を次のように定義する。

$$ (T+U) (x) = T(x) + U(x) \quad \text{and} \quad (aT)(x) = aT(x) \quad \text{ for } x \in V, a \in \mathbb{R} $$

すると、$aT+U$も再び $L(V, W)$に属する線形変換となり(二つの演算に対して閉じている)、$L(V, W)$は上記の演算に関してベクトル空間となる。

基底

$V, W$をそれぞれ $n, m$次元のベクトル空間とする。$\mathcal{B}_{V} = \left\{ v_{1}, \cdots, v_{n} \right\}$、$\mathcal{B}_{W} = \left\{ w_{1}, \cdots, w_{m} \right\}$をそれぞれ$V, W$の基底とする。線形変換$\phi_{ij}$を以下のように定義する。

$$ \begin{equation} \begin{aligned} \phi_{ij} : V &\to W \\ v_{j^{\prime}} &\mapsto \begin{cases} w_{i} & \text{if } j^{\prime} = j \\ 0 & \text{if } j^{\prime} \ne j \\ \end{cases} \end{aligned} \end{equation} $$

すると、集合 $\left\{ \phi_{ij} : 1 \le i \le m, 1 \le j \le n\right\}$は $L(V, W)$の基底となる。

線形独立

$$ \sum_{i,j} \lambda_{ij}\phi_{ij} = 0 \implies \lambda_{ij} = 0\quad \forall i,j $$

線形独立を示すことは、上記の式を示すことである。ベクトル空間 $L(V,W)$のゼロベクトルはゼロ変換 $T_{0}$なので、$\sum_{i,j} a_{ij}\phi_{ij} = T_{0}$とする。両辺に $v_{1}$を代入してみると、次のようになる。

$$ \sum_{i,j} \lambda_{ij}\phi_{ij}(v_{1}) = \sum_{i}\lambda_{i1}w_{i} = T_{0}(v_{1}) = \mathbf{0} $$

$$ \implies \sum_{i}\lambda_{i1}w_{i} = \mathbf{0} $$

しかし、$\left\{ w_{i} \right\}$が基底であるため、$\forall i$ $\lambda_{i1} = 0$である。同様に、$\sum_{i,j} \lambda_{ij}\phi_{ij} = T_{0}$の両辺に全ての $v_{j}$を代入すると、次の結果を得る。

$$ \lambda_{ij} = 0 \quad \forall i, j $$

したがって、$\left\{ \phi_{ij} \right\}$は線形独立である。

生成

任意の $T \in L(V, W)$が $\phi_{ij}$たちの和として表されることを示せばよい。基底$\mathcal{B}_{V}$が以下のようにマッピングするとする。

$$ \begin{equation} T(v_{j}) = \sum_{i=1}^{m} b_{ij} w_{i} \end{equation} $$

すると、$(1)$によって $w_{i} = \sum_{k=1}^{n} \phi_{ik}(v_{j})$であるから、$x = \sum\limits_{j=1}^{n}a_{j}v_{j} \in V$に対して $T(x)$は次のようになる。

$$ \begin{align*} T(x) &= T ( {\textstyle\sum_{j}}a_{j}v_{j} ) = \sum\limits_{j} a_{j}T(v_{j}) \\ &= \sum\limits_{j} a_{j} \sum\limits_{i}b_{ij}w_{i} = \sum\limits_{i,j} a_{j}b_{ij}w_{i} \\ &= \sum\limits_{i,j} a_{j}b_{ij}\sum_{k}\phi_{ik}(v_{j}) \end{align*} $$

しかし、ここでどうせ $k \ne j$なら $\phi_{ik}(v_{j}) = 0$であるから、固定された $j$に対して次が成り立つ。

$$ b_{ij}\sum_{k}\phi_{ik}(v_{j}) = \sum_{k}b_{ik}\phi_{ik}(v_{j}) $$

それゆえに、

$$ \begin{align*} && T(x) &= \sum\limits_{i,j} a_{j}\sum_{k}b_{ik}\phi_{ik}(v_{j}) = \sum\limits_{i,j,k} b_{ik}\phi_{ik}(a_{j}v_{j}) \\ && &= \sum\limits_{i,k} b_{ik}\phi_{ik}(x) = \sum\limits_{i,j} b_{ij}\phi_{ij}(x) \\ && &= \left( \sum\limits_{i,j} b_{ij}\phi_{ij} \right)(x) \\ \implies && T &= \sum\limits_{i,j} b_{ij}\phi_{ij} \end{align*} $$

したがって、$\left\{ \phi_{ij} \right\}$は $L(V, W)$を生成するための基底である。また、ここでは $b_{ij}$は $T$の行列表現 $\begin{bmatrix} T \end{bmatrix}_{\mathcal{B}_{V}}^{\mathcal{B}_{W}}$の$(i,j)$成分であることがわかる。

$$ \begin{bmatrix} T \end{bmatrix}_{\mathcal{B}_{V}}^{\mathcal{B}_{W}} = [b_{ij}] $$

双対基底に関する表現

上記の内容は、双対基底で表すと、さらに理解しやすい。$\mathcal{B}_{V}$の双対基底を $\left\{ v_{1}^{\ast}, \dots, v_{n}^{\ast} \right\}$とする。すると、$w_{i}$と $v_{j}^{\ast}$に対応する以下のような線形変換を考えることができる。

$$ \begin{align*} w_{i}v_{j}^{\ast} : V &\to W \\ x &\mapsto v_{j}^{\ast}(x)w_{i} \end{align*} \quad \forall i, j $$

これは、固定された $i$に対して $w_{i}$のスカラー倍のみをマッピングするため、自明にランクが $1$の線形変換である。また、本質的に$(1)$の定義と変わらない。$\left\{ w_{i} \right\}$が基底であるため、インデックス $i$に対しては、$\left\{ w_{i}v_{j}^{\ast} \right\}$が線形独立であることは明白である。上で示した方法で $\sum_{j}\lambda_{ij}w_{i}v_{j}^{\ast}(v_{j^{\prime}}) = 0$を確認すると、インデックス $j$に対しても独立であることがわかる。また、任意の $T \in L(V, W)$は $\left\{ w_{i}v_{j}^{\ast} \right\}$たちの線形結合として表現できることが容易に示せる。このときの係数は $T$の行列表現の成分 $b_{ij}$である。$x = \sum_{j}x_{j}v_{j} \in V$、$T(v_{j}) = \sum_{i}b_{ij}w_{i}$に対して、

$$ \begin{align*} T(x) &= T(\textstyle{\sum_{j}}x_{j}v_{j}) \\ &= \sum_{j} x_{j} T(v_{j}) \\ &= \sum_{j} x_{j} \sum_{i}b_{ij}w_{i} \\ &= \sum_{i,j} b_{ij}x_{j}w_{i} \\ &= \sum_{i,j} b_{ij}v_{j}^{\ast}(x)w_{i} \\ &= \sum_{i,j} b_{ij}w_{i}v_{j}^{\ast}(x) \\ &= (\textstyle{\sum_{i,j} b_{ij}w_{i}v_{j}^{\ast}})(x) \end{align*} $$

$$ \implies T = \sum_{i,j} b_{ij}w_{i}v_{j}^{\ast} $$


  1. Stephen H. Friedberg, Linear Algebra (4th Edition, 2002), p82 ↩︎