機械学習における回帰のための線形モデル
📂機械学習機械学習における回帰のための線形モデル
定義
単純モデル
データ集合X={xi}とラベル集合Y={yi}の間のターゲット関数f:X→Yを次のように定義しよう。
yi=f(xi)
機械学習において、線形回帰linear regressionとは、次の方程式を満たすwに対する線形関数f^を見つけることを言う。
yi≈y^i=f^(xi,w)=w0+w1x1+⋯+wnxn=w0+j∑wjxj
このとき、x∈Rn,w∈Rn+1である。
拡張モデル
入力データに対する非線形関数ϕjが与えられたとしよう。
yi≈y^i=f^(xi,w)=w0+j∑wjϕj(xi)
このとき、ϕjは基底関数basis functionsと言われる。
説明
実際に考えると、ターゲット関数fの存在性からわかることはない。したがって、fに最も近いf^を見つけることが目標であり、最もシンプルで多くを説明できる線形関数と仮定する。
f≈f~
非線形基底関数ϕを導入した場合も、f^が重みwに対して線形であるため、これを線形モデルと呼ぶことは同じである。
表記法
x0=1、ϕj=1とすると、上記の二つのモデルをもっと簡単に表せる。
y^=f^(x,w)=j=0∑nwjxj=wTx
このとき、x=[x0…xn]T、w=[w0…wn]Tである。
y^=f^(x,w)=j=0∑nwjϕj(x)=wTϕ(x)
このとき、ϕ=[ϕ0…ϕn]Tである。
統計学における線形回帰
統計学では、wiの代わりにβiと表記し、これを回帰係数と呼ぶ。機械学習では、wiを重みweightsという。
| 統計学 | 機械学習 |
---|
x | 独立変数 | データ |
y | 従属変数 | ラベル |
w,β | 回帰係数 | 重み |
特に機械学習では、b=w0はバイアスbiasと呼ばれている。
学習方法
線形モデルを訓練する方法には、以下のものがある。