logo

チェビシェフ展開 📂数値解析

チェビシェフ展開

ビルドアップ 1

チェビシェフ展開を理解するためには、チェビシェフ展開がどのように導出されるのかをまず知る必要がある。最小化問題を解く代わりに最小二乗問題を解くと考えてみよう。 $$ M_{n} (f) := \inf_{\deg(r) \le n } \left\| f - r \right\|_{2} $$ $f : [a,b] \to \mathbb{R}$について上述のような最小二乗問題が与えられているとしよう。目標は$M_{n} (f)$を最小化する$n$次以下の多項式$r_{n}^{ \ast }$を見つけることである。幸いにも多項式の空間$\mathbb{R} [ x ]$は、内積$\displaystyle \left< f , g \right> : = \int_{a}^{b} f(x) g(x) w(x) dx$に対して与えられたウェイト$w(x)$がある場合、有限次元内積空間となり、グラム・シュミットの過程によって正規直交基底$\left\{ \varphi_{k} \right\}_{k=0}^{n}$の存在が保証されているため $$ r(x) = b_{0} \varphi_{0} (x) + b_{1} \varphi_{1} (x) + \cdots + b_{n} \varphi_{n} (x) $$ のように$r(x)$の線形結合を見つける問題に変えることができる。言い換えれば、最小二乗問題とは $$ | f - r |_{2}^{2} = \int_{a}^{b} \left[ f(x) - \sum_{j=0}^{n} b_{j} \varphi_{j} (x) \right]^{2} w(x) dx $$ が最小値となるような$r = r_{n}^{ \ast }$を見つけることである。 $$ \begin{align*} \displaystyle 0 \le & | f - r |_{2}^{2} \\ =& \left< f - \sum_{j=0}^{n} b_{j} \varphi_{j} , f - \sum_{j=0}^{n} b_{j} \varphi_{j} \right> \\ =& \left< f , f \right> - 2 \sum_{j=0}^{n} b_{j} \left< f , \varphi_{j} \right> + \sum_{i} \sum_{j} b_{i} b_{j} \left< \varphi_{i} , \varphi_{j} \right> \\ =& | f |_{2}^{2} - 2 \sum_{j=0}^{n} b_{j} \left< f , \varphi_{j} \right> + \sum_{j=0}^{n} b_{j}^2 \\ =& | f |_{2}^{2} - \sum_{j=0}^{n} \left< f , \varphi_{j} \right>^2 + \sum_{j=0}^{n} \left[ \left< f , \varphi_{j} \right> - b_{j} \right]^2 \end{align*} $$ ここで$| f |_{2}^{2}$ と$\displaystyle \sum_{j=0}^{n} \left< f , \varphi_{j} \right>^2$ は$f$ と$\left\{ \varphi_{k} \right\}_{k=0}^{n}$ によって既に決まっているため、変わらない。したがって、最後の項$\displaystyle \sum_{j=0}^{n} \left[ \left< f , \varphi_{j} \right> - b_{j} \right]^2$ を最小化する場合を見つける必要があるが、これは単純に$b_{j} = \left< f , \varphi_{j} \right>$によって行え、以下のような最小二乗解を得ることができる。 $$ r_{n}^{ \ast } (x) = \sum_{j=0}^{n} \left< f , \varphi_{j} \right> \varphi_{j} (x) $$ さて、本格的にチェビシェフ多項式について話そう。

定義 2

チェビシェフ多項式: $T_{n} (x) = \cos \left( n \cos^{-1} x \right)$ は第一種チェビシェフ多項式と呼ばれる。

  • [3] 関数の内積: $\displaystyle \left<f, g\right>:=\int_a^b f(x) g(x) w(x) dx$ の内積にウェイト$w$ を$\displaystyle w(x) := {{1} \over { \sqrt{1 - x^2} }}$ のように与えると、$\left\{ T_{0} , T_{1}, T_{2}, \cdots \right\}$ は直交集合になる。

直交基底$\left\{ T_{k} \right\}_{k = 0}^{n}$が正規化されるように正規直交基底$\left\{ \varphi_{k} \right\}_{k=0}^{n}$を以下のように定義しよう。 $$ \varphi_{n} (x) := \begin{cases} \displaystyle \sqrt{ {{1} \over { \pi }} } & , n=0 \\ \displaystyle \sqrt{ {{2} \over { \pi }} } T_{n} (x) & , n \in \mathbb{N} \end{cases} $$ この基底についての次のシリーズは チェビシェフ最小二乗近似、または単に チェビシェフ展開 とも呼ばれる。 $$ C_{n} (x) := \sum_{j=0}^{n} \left< f , \varphi_{j} \right> \varphi_{j} (x) $$ または、時々、$T_{k}$ を直接使用する方が便利な場合もあるので、以下のように書くこともある。 $$ c_{j} := {{2} \over { \pi }} \int_{-1}^{1} {{f(x) T_{j} (x) } \over {\sqrt{1 - x^2 }}} dx $$

$$ C_{n} (x) = c_{0} + \sum_{j=1}^{n} c_{j} T_{j} (x) $$

説明

以下のような関数近似において良い条件を比較的よく満たしているため、チェビシェフ展開が有益である理由は:

  • (i): $f$が$[-1,1]$から$f^{(r)}$まで存在し、連続である場合、チェビシェフ最小二乗近似$C_{n}$と$f,r$におけるある定数$B$に対して$\displaystyle | f - C_{n} |_{\infty} \le {{B \ln n} \over {n^{r}}}$が成り立つ。
  • (ii): $C_{n+1} (x) = C_{n} (x) + c_{n+1} T_{n+1} (X)$
  • (iii): $\displaystyle c_{n+1} \sim {{1} \over {2^{n}}}$

関数近似における良い基底の条件:

  • (i): $\displaystyle p_{n} (x)$が$\displaystyle \left\{ \varphi_{n} (x) \in \mathbb{Q} [ x ] : n \ge 0 \right\}$の線形結合として表され、$\displaystyle \max_{x \in [a,b]} | f(x) - p_{n} (x) |$が望むほど小さくなるようにする$n \in \mathbb{N}$が存在する必要がある。
  • (ii): $p_{n} (x)$は$\displaystyle p_{n} (x) = \sum_{k=0}^{n} a_{k} \varphi_{n} (X)$のように計算されるのが良い。つまり、エラーを減らすために毎回全てを再計算するのではなく、新しい項を加えることで計算するのが良い。
  • (iii): $| a_{n} |$が迅速に$0$に収束するのが良い。つまり、可能な限り少ない項を加えても迅速に収束するのが良い。
  • (i): チェビシェフ展開を理解する最も重要な理由の一つ。もともと最小二乗法は、グローバルにエラーが最小になる解を見つける方法ではなく、分散が最小になるような近似解を見つけることである。エラーの和や積分で計算するため、ある部分ではうまく合っているが、他の部分では大きく間違えることもある。このような不安定さを無視するなら、そもそも関数近似をする理由がなかった。関数近似の真の目的は、一様なエラーを最小化すること、つまり$\displaystyle \rho_{n} (f) = \inf_{\deg(q) \le n } \left\| f - q \right\|_{\infty}$が小さくなる近似をすることである。$n^r$に比べて、$\ln n$の発散速度はかなり遅いため、$\displaystyle | f - C_{n} |_{\infty} \le {{B \ln n} \over {n^{r}}}$という不等式は、驚くべきことに、チェビシェフの最小二乗近似が最小化問題でもかなり役立つことを意味する。
  • (ii): $T_{n}$は既に再帰的に全て定まっている。これを計算することは特に難しくなく、$c_{j}$も単純無闇に計算するだけである。望む精度まで一度に計算する必要はなく、実用的な観点からいつでも歓迎される。精度が低くても計算を節約でき、より高い精度が必要な場合でも、これまでに行った計算を破棄する必要がないためである。
  • (iii): $f$を近似するための多項式$p_{n+1}$を以下の二つの方法で表現してみよう。 $$ \begin{align*} p_{n+1} (x) :=& a_{0} + a_{1} x + \cdots + a_{n} x^{n} + a_{n+1} x^{n+1} \\ p_{n+1} (x) :=& c_{0} + c_{1} T_{1} (x) + \cdots + c_{n} T_{n} (x) + c_{n+1} T_{n+1} (x) \end{align*} $$ $p_{n+1} (X)$の最高次項の係数$a_{n+1}$は、$c_{n+1} T_{n+1} (x)$の最高次項の係数と同じである。しかし、 $$ \begin{align*} T_{0} (x) =& 1 \\ T_{1} (x) =& x \\ T_{n+1} (x) =& 2x T_{n} (x) - T_{n-1} (x) \end{align*} $$ となるため、$T_{n+1} (x)$の最高次項の係数は$2^{n}$である。これを数式で要約すると $$ a_{n+1} = c_{n+1} 2^{n} \implies c_{n+1} = {{a_{n+1}} \over {2^{n}}} $$ である。一方で$| T_{m} (x) | = \left| \cos \left( m \cos^{-1} x \right) \right| \le 1$であるため、$\displaystyle \left| c_{m+1} T_{m+1} (x) \right| = {{1} \over {2^{m}}} \left| a_{m+1} T_{m+1} (x) \right|$という項はかなり、いや、非常に速く減少することがわかる。これは質的に言えば、チェビシェフ展開は最初から良い基底を選んだと言える。テイラー展開が$1 , x , x^{2} , x^{3} , \cdots$のように純粋に平凡な項を加えている間、チェビシェフ展開は関数を近似するのに大きく役立つ関数から優先的に選び、ここに加えて、あそこを引くなどして速度を上げたのである。

  1. Atkinson. (1989). An Introduction to Numerical Analysis(2nd Edition): p216. ↩︎

  2. Atkinson. (1989). An Introduction to Numerical Analysis(2nd Edition): p219. ↩︎