머신 러닝에서 회귀를 위한 선형 모델
📂머신러닝머신 러닝에서 회귀를 위한 선형 모델
정의
단순 모델
데이터 집합 X={xi}와 레이블 집합 Y={yi} 사이의 타겟 함수target function f:X→Y를 다음과 같이 정의하자.
yi=f(xi)
머신러닝에서 선형회귀linear regression란, 다음의 식을 만족하는 w에 대한 선형함수 f^를 찾는 것을 말한다.
yi≈y^i=f^(xi,w)=w0+w1x1+⋯+wnxn=w0+j∑wjxj
이때 x∈Rn,w∈Rn+1이다.
확장 모델
입력 데이터에 대한 비선형 함수 ϕj가 주어졌다고 하자.
yi≈y^i=f^(xi,w)=w0+j∑wjϕj(xi)
이때 ϕj를 베이시스 함수basis functions이라 한다.
설명
현실적으로 생각해봤을 때 타겟함수 f는 존재성부터 알 수 없다. 따라서 f와 최대한 비슷한 f^을 찾는 것이 목표이며, 가장 간단하면서도 많은 것을 설명하는 선형함수로 가정한다.
f≈f~
비선형 베이시스 함수 ϕ를 도입한 경우에도 이를 선형 모델이라고 부르는 것은 f^가 가중치 w에 대해서 선형이기 때문이다.
표기법
x0=1, ϕj=1로 두면, 위의 두 모델을 더 간단하게 나타낼 수 있다.
y^=f^(x,w)=j=0∑nwjxj=wTx
이때 x=[x0…xn]T, w=[w0…wn]T이다.
y^=f^(x,w)=j=0∑nwjϕj(x)=wTϕ(x)
이때 ϕ=[ϕ0…ϕn]T이다.
통계학에서 선형 회귀
통계학에서는 wi 대신 βi로 표기하며, 이를 회귀계수라 한다. 머신러닝에서는 wi를 가중치weights라고 한다.
| 통계학 | 머신러닝 |
---|
x | 독립변수 | 데이터 |
y | 종속변수 | 레이블 |
w,β | 회귀계수 | 가중치 |
특히 머신러닝에서 b=w0는 바이어스bias라고 불린다.
학습방법
선형 모델을 학습시키는 방법으로는 다음과 같은 것들이 있다.