서브그래디언트 메서드
📂최적화이론서브그래디언트 메서드
정의
목적함수 f:Rn→R가 컨벡스 함수라고 하자. 점 x(k)에서 f의 서브그래디언트를 g(k)라고 하자. 다음과 같은 방법으로 x(k)를 업데이트하여 f에 대한 최적화 문제를 푸는 방법을 서브그래디언트 메서드subgradient method라고 한다.
x(k+1)=x(k)−αg(k)
설명
경사하강법에서 그래디언트가 서브그래디언트로 대체된 꼴이다.
gradient descent: x(k+1)=x(k)−α∇f(x(k))
f가 미분가능하다면 경사하강법을 쓰면 되므로, 목적함수가 미분가능하지 않을 때 선택할 수 있는 최적화 방법이다. 다만 수렴속도가 느리다는 단점이 있다.