logo

ガウス求積法 📂数値解析

ガウス求積法

定義 1

$f : [a,b] \to \mathbb{R}$が$[a,b]$で積分可能であり、$[a,b]$を$a = x_{1} < \cdots < x_{n} = b$のようなノードポイントで分割したとする。 $$ I_{n} (f) := \sum_{j=1}^{n} w_{j} f ( x_{j} ) \approx \int_{a}^{b} f(x) dx = I ( f ) $$ 定義された$I_{n}$の重み$w_{j}$を求め、数値積分を計算することをガウス求積法と呼ぶ。

説明

$f$をよく近似する多項式$p_{n-1}$が存在することは保証されているため、$f$の代わりに$p_{n-1}$を考える。便宜上$w(x) = 1$としよう。[ : この場合、ガウス=ルジャンドル求積法と呼ばれる。] $$ E_{n} ( p_{n-1} ) : = \int_{a}^{b} p_{n-1} (x) dx - \sum_{j=1}^{n} w_{j} p_{n-1} ( x_{j} ) $$ こうして定義されたエラー$E_{n}$はリニアなので $$ \begin{align*} E_{n} ( p_{n-1} ) =& E_{n} \left( a_{0} + a_{1} x + \cdots + a_{n-1} x^{n-1} \right) \\ =& a_{0} E_{n} \left( 1 \right) + a_{1} E_{n} \left( x \right) + \cdots + a_{n-1} E_{n} \left( x^{n-1} \right) \end{align*} $$ ここで$a_{0} , a_{1} , \cdots , a_{n-1}$が何であれ、$w_{j}$を上手く見つけて$E_{n} ( p_{n-1} ) = 0$にするためには、全ての$i=0,1, \cdots , (n-1)$に対して $$ E_{n} ( x^{i} ) = \int_{a}^{b} x^{i} dx - \sum_{j=1}^{n} w_{j} x_{j}^{i} = 0 $$ 展開してみると $$ \begin{align*} w_{1} + \cdots + w_{n} =& \int_{a}^{b} 1 dx \\ w_{1} x_{1} + \cdots + w_{n} x_{n} =& \int_{a}^{b} x dx \\ w_{1} x_{1}^{2} + \cdots + w_{n} x_{n}^{2} =& \int_{a}^{b} x^{2} dx \\ \vdots& \\ w_{1} x_{1}^{n-1} + \cdots + w_{n} x_{n}^{n-1} =& \int_{a}^{b} x^{n-1} dx \end{align*} $$ 行列で表すと $$ \begin{bmatrix} 1 & 1 & \cdots & 1 \\ x_{1} & x_{2} & \cdots & x_{n} \\ \vdots & \vdots & \ddots & \vdots \\ x_{1}^{n-1} & x_{2}^{n-1} & \cdots & x_{n}^{n-1} \end{bmatrix} \begin{bmatrix} w_{1} \\ w_{2} \\ \vdots \\ w_{n} \end{bmatrix} = \begin{bmatrix} \int_{a}^{b} 1 dx \\ \int_{a}^{b} x dx \\ \vdots \\ \int_{a}^{b} x^{n-1} dx \end{bmatrix} $$ ここで、$w_{1}, \cdots , w_{n}$の存在性はヴァンデルモンド行列式によって保証されている。

ガウス求積法の利点は、ニュートン=コーツの積分公式とは異なり、ノードの位置がどうであっても構わないことである。


  1. Atkinson. (1989). An Introduction to Numerical Analysis(2nd Edition): p524. ↩︎