깁스의 엔트로피 표현 📂열물리학

깁스의 엔트로피 표현

Gibbs expression for the entropy

공식

거시상태가 $i$번째 상태일 확률을 $P_{i}$라고 하면 다음이 성립한다.

$$ S = - k_{B} \sum_{i} P_{i} \ln P_{i} $$

설명

이젠 열에 대한 공부라고 말하기도 어려울 정도까지 왔다. 하지만 반대로 생각해보면, 엔트로피 자체가 열역학을 뛰어넘어 이런 것까지 생각하기 위해 도입되었다고 볼 수도 있다.

유도

  • Part 1.

    열역학 제1법칙

    $$ d U = \delta Q + \delta W $$

    엔트로피의 정의에서 $\delta Q = T dS$ 이고, $\delta W= - p dV$이므로 열역학 제1법칙의 다른 모양인 아래의 식을 얻는다.

    $$ dU = T dS - p dV $$

    한편 전미분을 생각해보면 다음과 같다.

    $$ dU = {{ \partial U } \over { \partial S }} dS + {{ \partial U } \over { \partial S }} dV $$

    따라서 다음이 성립함을 알 수 있다.

    $$ T = {{ \partial U } \over { \partial S }} $$

    온도의 정의

    $$ {{1 } \over {k_{B} T}} : = {{ d \ln ( \Omega ) } \over {d E }} $$

    온도의 정의에 따라 $\dfrac{1}{k_{B}} \dfrac{ \partial S }{ \partial U } = \dfrac{ d \ln ( \Omega ) }{ d E }$이고, 에너지는 $U = E$이므로 미분방정식을 풀면 다음을 얻는다.

    $$ S = k_{B} \ln \Omega $$

  • Part 2.

    계에서 일어날 수 있는 모든 미시상태의 수를 $N$이라고 하고, $i$번째 거시상태의 수를 $n_{i}$라고 하면 $\sum \limits_{i} n_{i} = N$이다. 그러면 거시상태가 $i$번째 상태일 확률은 다음과 같다.

    $$ P_{i} := {{n_{i}} \over {N}} $$

  • Part 3.

    위의 Part 1에서 $S = k_{B} \ln \Omega$인데 거시상태의 엔트로피를 $S_{\text{ macro } }$, 미시상태의 엔트로피를 $S_{\text{ micro } }$라고 하자. 우리가 관심있는 계의 엔트로피 $S$ 는 다음과 같다.

    $$ S_{\text{ macro } } = S + S_{\text{ micro } } $$

    그러나 미시상태의 엔트로피는 우리가 쉽게 계산할 수 없으므로, 확률적인 기댓값을 구해보면 다음과 같다.

    $$ S_{\text{ micro } } = \left< S_{i} \right> = \sum_{i} P_{i} S_{i} = \sum_{i} P_{i} k_{B} \ln n_{i} $$

    반면 거시상태의 엔트로피는 간단하게도 $S_{\text{ macro } } = k_{B} \ln N$으로 나타낼 수 있다. 따라서 다음과 같다.

    $$ S = S_{\text{ macro } } - S_{\text{ micro } } = k_{B} \left( \ln N - \sum_{i} P_{i} \ln n_{i} \right) $$

    이때 $\ln N = \sum_{i} P_{i} \ln N$이므로 다음이 성립한다.

    $$ \ln N - \sum_{i} P_{i} \ln n_{i} = \sum_{i} P_{i} ( \ln N - \ln n_{i} ) = - \sum_{i} P_{i} \ln P_{i} $$

    정리하면 다음을 얻는다.

    $$ S = - k_{B} \sum_{i} P_{i} \ln P_{i} $$

댓글