다변수함수의 극값에 대한 1계 필요 조건
📂최적화이론다변수함수의 극값에 대한 1계 필요 조건
정리
함수 f:Rn→R가 주어졌다고 하자. 만약 x∗가 지역 최적해local optimizer이고, x∗의 근방에서 f∈C1이면,
∇f(x∗)=0
∇f는 f의 그래디언트이다. 여기서 0은 숫자 영zero이 아니라, 영벡터임에 주의하라.
설명
1계필요조건은 x∗가 f의 로컬 미니마이저일 때, f의 1계 도함수인 그래디언트가 가지는 성질에 대해 말해준다. 이름이 붙고, 다변수함수에 대해서 확장되어서 그렇지, 극대나 극소에서 미분하면 0이 된다는 것은 급식 시절에도 배우는 내용이다.
증명
귀류법으로 증명한다. ∇f(x∗)=0라고 가정하자. 그리고 다음과 같이 표기하자
p=−∇f(x∗),pt∇f(x∗)=−∥∇f(x∗)∥2<0
여기서 pt는 전치행렬이다. 그러면 ∇f가 연속이기 때문에, 아래의 식이 성립하는 s>0가 존재한다.
pt∇f(x∗+ξp)<0,∀ξ∈[0,s]
또한 다변수함수의 테일러전개공식에 의해,
f(x∗+ξp)=f(x∗)+ξpt∇f(x∗+ξˉp),for some ξˉ∈(0,ξ)
그러면 (1)과 (2)에 의해 다음을 얻는다.
f(x∗+ξp)<f(x∗),∀ξ∈[0,s]
이는 x∗가 로컬 미니마이저라는 사실에 모순된다. 따라서 가정이 틀렸으며, ∇f(x∗)=0이다.
■
같이보기