行列式
定義
$A$を次のような$2 \times 2$ 行列とする。
$$ A = \begin{bmatrix} a & b \\ c & d \end{bmatrix} $$
$A$の行列式determinantを次のように定義し、$\det(A)$で表す。
$$ \det(A) := ad - bc $$
説明
行列式を語るためには線形代数学の目的自体を話さざるを得ない。大部分の数学でいう問題は基本的に「方程式を解けるか」に要約されると言っても過言ではない。簡単な方程式である
$$ ax = b $$
を考えてみると、$ a = 0$でない限りこの方程式は解を持つことは容易にわかる。二次方程式
$$ a x^2 + b x + c = 0 $$
も解の公式を通して容易に解くことができる。このため数学者たちは$x$の次数を上げながらさらに難しい問題に挑戦した。しかし不運の天才アーベルによって「五次以上の代数方程式は一般解を持たない」ことが証明されてしまう。
一方、次数の代わりに未知数や方程式の数を増やして研究する道が残っていた。ここから行列式が出てきた。韓国語で見ると行列ができた後に行列式というものができたように見えるが、実際はそうではない。歴史的には行列式は行列が登場する前に先に登場し1、実際に英単語を見るとdeterminantとmatrixは特に関係がない。determinantという名前は次のように未知数が2つある連立一次方程式の解が存在するか、存在しないかを判別する公式なので付けられた名前である。
$$ \left\{ \begin{align*} ax + by &= 0 \\ cx + dy &= 0 \end{align*} \right. $$
この連立方程式が与えられたとき、$ad-bc = 0$ならば唯一解は$x=y=0$という自明な解だけが存在し、$ad-bc \ne 0$ならば自明でない唯一解を持つことになる。したがって$ad-bc$が与えられた連立方程式の解があるかないかを判別する公式となるので判別式という名前が付いたのだ。
しかし知っての通り連立方程式は行列の形で表現することができる。‘簡単な’連立方程式は次のように表すことができる。
$$ A \mathbf{x} = \mathbf{b} $$
ここで$ax = b$の解が$x = \dfrac{b}{a}$であったことをよく考えてみよう。$\dfrac{1}{a}$は$a$の逆元なので両辺に掛けるだけで$x$だけ残すことができた。解が存在する条件と結びつけて言えば、$a= 0$は逆元が存在しないので$ax = b$の解も存在しないのである。同様に$A \mathbf{x} = \mathbf{b}$もまた$A$の逆元を求められるかという問題に帰結する。$A$の逆行列の存在自体が$A$で表される線形システムの解の存在性であり、この逆元を求めることが解を求めることになる。このとき$A$の逆行列が存在する条件と$A$で表される線形システムが唯一解を持つ条件が同じであることがわかる。
$A = \begin{bmatrix} a & b \\ c & d\end{bmatrix}$の逆行列は次の通りだ。
$$ A^{-1} = \dfrac{1}{ad-bc} \begin{bmatrix} d & -b \\ -c & a \end{bmatrix} $$
これを証明する方法は単に$A$と$A^{-1}$を直接掛けることである。もし$\det (A) = ad - bc = 0$ならば行列の形がどうであっても$A^{-1}$の前の定数が$\dfrac{1}{0}$だから逆行列が存在することはできない。可逆性invertibilityを時々非特異性nonsingularityと呼ぶのもこのためである。singularという言葉は「特異な」と翻訳されるが、韓国語の感覚を殺して数学的に言うと「0で割る」程度の感じになる。
一方、行列式を$n\times n$個の実数を$1$個の実数にマッピングする関数の観点で見ると次のように定義できる。
一般的な定義
性質による定義
関数$ \det : \mathbb{R}^{n \times n } \to \mathbb{R} $が次のような条件を満たすとき、行列式と定義する。
- 単位行列$I_{n}$に対して、$\det(I_{n}) = 1$
- $1 \le i,j \le n$に対して、$\det \begin{bmatrix} \mathbb{r_{1}} \\ \vdots \\ \mathbb{r_{i}} \\ \vdots \\ \mathbb{r_{j}} \\ \vdots \\ \mathbb{r_{n}} \end{bmatrix} = - \det \begin{bmatrix} \mathbb{r_{1}} \\ \vdots \\ \mathbb{r_{j}} \\ \vdots \\ \mathbb{r_{i}} \\ \vdots \\ \mathbb{r_{n}} \end{bmatrix}$
- $\det \begin{bmatrix} k \mathbb{r_{1}} + l \mathbb{r_{1}}^{\prime} \\ \vdots \\ \mathbb{r_{n}} \end{bmatrix} = k \det \begin{bmatrix} \mathbb{r_{1}} \\ \vdots \\ \mathbb{r_{n}} \end{bmatrix} + l \det \begin{bmatrix} \mathbb{r_{1}}^{\prime} \\ \vdots \\ \mathbb{r_{n}} \end{bmatrix}$
順列による定義
集合$\left\{ 1, 2, \dots, n \right\}$の順列を$\sigma$とする。$A = [a_{ij}]$を$n \times n$の行列とする。この場合、$A$の行列式は次のように定義される。
$$ \begin{align*} \det (A) &= \sum_{\sigma \in S_{n}} \sgn(\sigma) a_{1\sigma(1)} a_{2\sigma(2)} \cdots a_{n\sigma(n)} \\ &= \sum_{\sigma \in S_{n}} \sgn(\sigma) \prod_{i=1}^{n} a_{i\sigma(i)} \\ \end{align*} $$
ここで$S_{n}$は対称群である。$\sgn$は順列の符号である。
説明
このように行列式を一般化すると、連立方程式の解が存在するか、存在しないかを語るのが一層容易になるだろう。そしてこのような議論が一行で完成されたのがまさに以下の定理である。
$$ \forall A \in \mathbb{C}^{n \times n},\quad \exists A^{-1} \iff \det{A} \ne 0 $$
定理というよりもほとんど定義レベルで浸透しているほど当然の事実である。しかし、なぜこのような定理が残っているのか、本当に当然なのかをきちんと説明できなければ、行列式を理解していないのと変わらない。特に行列式の場合は、定義より概念が先行するため、理解できないなら長時間かけてでも理解しておくことにしよう。