# 엔트로피 개념에 대한 이해 엔트로피 증가 법칙(열역학 제2법칙)을 절대적으로 생각하는 사람이 많은것 같아서 쓰게/긁어오게 됨. 이건 엔트로피 관련 글을 직접 쓰려다가 제대로 정리된 글 없나 먼저 검색하면서 알게된 글. 내가 이해하고 있는 엔트로피 개념과 거의 같아서 그냥 html+highlight로만 조금 정리. 엔트로피 개념의 시작은 실험적으로 먼저 정립되고, 후에 통계학적으로 설명이 이루어진 것인데, 이 통계학적 논리에서는 열역학 제2법칙을 완전 절대적인 것이라고 설명하지 않음. 몇가지 공리로부터 시작해서 "왜 엔트로피는 증가할 수 밖에 없는가?"를 설명하게 되는데, 공리가 합당한 것인지도 고민해봐야 하고 결론으로 내놓은 것도 제대로 이해해야 함. 결론은 항상 증가한다는게 아니라 큰 수의 법칙에 의해 대부분이 그렇다는 것임. 더 깊이 들어가면 "엔트로피가 증가하게 되는 시간의 방향성이란게 어떻게 정해지는 것인가?", "우리와는 반대 방향의 시간으로 늙어가는(엔트로피가 증가하는) 생명체나 계(system or sub-universe)가 우리 우주안에 공존할 수 있을까?" 등의 질문도 나오게 되면서 양자역학이랑도 섞이고 꽤 복잡한 논의가 필요하게 됨. 아직 엔트로피 관련해서도 풀리지 않은 것들이 많음. ## PH
  • 2015-12-17 : To SEE. 오유덕에(?) 조금 더 정리.
  • 2014-06-12 : docuK upgrade. 조금 더 정리.
  • 2014-01-24 : First Posting.
## TOC ## 엔트로피 개념에 대한 이해 (저자 - 임경순) 엔트로피 개념은 일단 정의가 된 후에는 이처럼 중요한 역할을 하게 되었다. 우주의 모든 변화를 통해서 항상 보존되는 것이 '에너지'인 반면에, 이런 변화가 방향성을 나타내 주면서 항상 증가하는 양이 '엔트로피'였기 때문이다. 그러나 이렇게 태어난 엔트로피 개념이 사람들에 의해 쉽게 받아들여졌던 것은 아니었다. 우선 1865년 클라우지우스에 의해 처음 제시된 이래 한참 동안 엔트로피의 개념은 제대로 이해되지 못하고 많은 오해를 불러일으켰다. 클라우지우스 자신도 그 자신이 정의한 개념을 완전히 파악하지 못한 면이 있을 정도였다. 이 같은 오해가 있었던 것은 클라우지우스에 의해 엔트로피가 정의된 형태가 지극히 간접적이었기 때문이었다. 그것은 그 자체로서가 아니라 그 미분량으로서 정의되었으며, 그것은 이상적인 가역적 과정의 제한하에서의 정의였다. 따라서 실제 비가역적 과정에 대한 엔트로피의 변화는 계산하기도 힘이 들었고, 그것이 계산될 수 있었다고 해도 물리적으로 어떤 의미를 지녔는지 이해하기가 극히 힘들었다. 그리고 그 점은 물리적 의미가 어느 정도 직관적으로 파악되었던 에너지 개념과는 크게 대조적이었다. 따라서 엔트로피 개념이 등장하자 곧 그것에 물리적 의미를 부여해 보려는 노력이 나타났다. 그리고 클라우지우스 자신에 의해 시작된 그 같은 시도가 성공한 것은 확률적인 방식을 통해서였다. 그것은 열역학 제2법칙이 수학적 추론에 의해서나 이론적 증명을 통해서 얻어진 것이 아니라 경험적인 사실이라는 점으로부터 시작했다. 클라우지우스와 톰슨이 불가능하다고 했던 일들, 곧 열이 낮은 온도에서 높은 온도로 흐르거나 아무런 다른 변화 없이 열이 일로 바뀌는 것은 사람들의 경험을 통해 과거에 한 번도 일어나지 않았고, 따라서 앞으로도 일어나지 않을 것으로 사실상 확신할 수 있는 일들이지만, 그것들은 이론적으로 불가능함이 증명된 일들은 아니었다. 이런 일들은 일어날 수는 있지만, 그 확률이 극히 낮아서 경험적으로 그것이 일어나는 것을 관측하기가 불가능한 일들이었던 것이다.
볼츠만(Ludwig Boltzman, 1844~1906)
그렇다면 열역학 제2법칙이 제시하는 변화의 방향성, 예를 들어 열이 높은 온도에서 낮은 온도로 흐르는 것은 그 방향으로 변화가 일어날 확률이 지극히 높음을 이야기하는 것이 된다. 그리고 우주의 모든 변화가 엔트로피가 증가하는 방향으로 일어난다는 것은 엔트로피가 증가하는 변화가 일어날 확률이 지극히 높다는 것이 된다. 어떤 한 상태(상태 1)에서 다른 한 상태(상태 2)로의 변화가 항상 일어나기 위해서는 상태 2가 상태 1보다 확률이 지극히 높은 상태여야만 한다. 그런데 이 변화에서 상태 2는 상태 1보다 엔트로피가 높은 상태이므로, 결국 엔트로피가 확률과 직접 연결되어 있고, 어떤 상태에 대한 엔트로피가 그 상태에 대한 확률의 척도가 될 것임을 알 수 있다. 실제로 볼츠만(Ludwig Boltzmann, 1844∼1906)은 1877년의 논문에서, 주어진 상태에 대한 엔트로피가 그 상태에 해당되는 분자들의 배열방법 수의 로그(log)에 비례함을 보일 수 있었고, 확률이 배열방법 수에 비례하기 때문에 이는 엔트로피가 확률의 로그에 비례함을 의미했다. 어떤 상태에 대한 엔트로피는 그 상태에 대한 확률의 척도일 뿐만 아니라, 또한 그 상태의 무질서함의 척도이기도 하다. 어떤 계(system)의 무질서한 상태(예를 들어, 기체상태)에 해당하는 분자들의 배열방법 수는 퍽 많고, 그에 대한 확률이 큰 데 반해, 질서가 있는 상태(예를 들어 고체상태)에 대한 배열방법 수와 그 확률은 극히 작기 때문이다. 따라서 어떤 계 속에 담겨 있는 기체분자들의 가능한 배열방법들을 모두 찾아볼 수 있다면(예를 들어, 순간순간마다 분자들의 스냅사진을 찍어서) 그 중의 거의 모든 배열이 분자들이 아무렇게나 섞여 있는 무질서한 상태에 해당되고, 극히 드문 경우에만 질서가 있는 상태(예를 들어, 모든 분자들이 용기의 한쪽에만 모여 있거나, 속도가 빠른 분자들은 모두 한쪽에 있고 느린 분자들은 모두 다른 쪽에 있는)가 얻어질 것이다. 이로부터 볼츠만은 어떤 기체계의 분자들이 질서 있는 배열로부터 시작해서 움직여 간다면 시간이 지나면서 점점 무질서한 배열들로 가게 되리라는 것을 쉽게 예측할 수 있었다. 무질서한 배열들이, 가능한 배열 방법의 수가 훨씬 많고, 그에 따라 확률이 높기 때문이다. 볼츠만의 이 같은 논의는 카드놀이의 예를 들어보면 이해가 쉬워진다. 아무렇게나 카드를 섞어서 놓으면 가능한 대부분의 카드배열은 무질서한 것이 될 것이고, 무늬나 숫자가 마구 섞여 있는 것이 될 것이다. 무늬가 같은 것끼리 모여 있거나 숫자가 순서대로 되어 있는 질서가 있는 배열은 아주 드물게 얻어질 것이다. 따라서 질서가 있는 배열로부터 시작해 카드를 섞으면 거의 틀림없이 질서가 줄어든 배열이 얻어질 것이다. 무질서한 상태가 확률이 높기 때문이다. 물론 무수히 많은 배열들 중에서 아주 드물게는 질서가 있는 배열이 얻어질 수도 있다. 그러나 아무리 섞기를 오래 되풀이한다고 해도 52장의 카드가 완전히 처음과 같이 질서 있는 배열로 얻어 지는 일이 생길 것을 기대하는 사람은 아무도 없을 것이다. 그리고 52장의 카드의 배열에서 무질서한 배열의 확률의 크기가 이러하다면, 10의 20제곱이 훨씬 넘는 숫자의 분자들로 이루어진 기체계의 분자배열에서는 그 정도가 얼마나 심하겠는가 하는 점에서 볼츠만의 논의의 힘을 짐작할 수가 있다. 따라서 볼츠만의 이 같은 논의로부터 분자들로 이루어진 계가 겪게 될 어느 물리적 과정에서나 무질서함(엔트로피)이 증가할 것은 거의 확실했다. 그리고 열역학 제2법칙은 많은 숫자의 분자들로 이루어진 계에 적용되는 이 같은 거의 확실한 사실에 대한 확률적인 법칙이었다. 물론 확률적 법칙인 까닭에 엔트로피가 감소하는 것과 같은 극히 드문 경우가 일어날 수 있는 것은 사실이다. 예를 들어, 컵 속의 물의 분자들은 보통 아무방향으로나 무질서하게 움직이지만, 한 순간에 모든 분자들이 한 방향으로만―예를 들어, 위로만―질서 있게 움직인다는 것이 절대적으로 불가능한 일은 아니며, 그러면 물은 저절로 컵 위로 용솟음쳐 올라올 것이다. 이 경우에는 무질서한 움직임이 저절로 질서 있는 움직임으로 된 셈이며, 엔트로피는 감소한다. 그러나 이런 일이 일어날 확률은 극히 작아서 거의 불가능에 가깝고, 엔트로피가 항상 증가한다는 열역학 제2법칙은 바로 그것을 말해 주는 것이다.
여기서 더 엄밀히 하려면 시간의 방향성에 대한 논의가 들어가야 한다. 논리만 잘 따져보면, 한순간에 낮은 엔트로피 값을 가진다고 하면, 시간을 앞으로 돌리든, 뒤로 돌리든 엔트로피 값은 증가할 확률이 압도적으로 높다. 논리의 헛점이 보이는가??? 시간의 방향성에 대한걸 두리뭉실하게 넘어가는데... 왜 시간의 대칭성이 깨졌는지를 깊게 고민해봐야 한다. 정말 깨지기는 한거니?도...
엔트로피를 이처럼 확률을 통해 정의해 줌으로써 볼츠만은 열역학 제2법칙을 확률의 법칙의 직접적인 표현으로 만들어 주었다. 어떤 상태에 대한 엔트로피는 그 상태의 확률을 나타내 주는 척도이며, 계는 확률이 낮은 상태에서 높은 상태로 이동하려 할 것이기 때문에 엔트로피가 증가한다. 그리고 이제 엔트로피와 확률 사이의 관계, 그것들과 분자배열의 무질서함 사이의 관계가 명확히 주어짐으로써, 엔트로피는 열의 출입이 수반되는 변화에 대해 간접적으로 주어진 정의에서 벗어나서 모든 물리적 상태에 적용 가능해진 정의를 지니게 되었다. ## Entropy from Statistics ### $S/k_{\text{B}} = \ln \Omega$ vs $- \sum_{i} p_i \ln p_i$ 가장 간단한 버전의 엔트로피는 S \equiv k_{\text{B}} \ln \Omega 로 쓸 수 있는데, 여기서 $k_{\text{B}}$는 Boltzman 상수이고, $\Omega$는 특정 상황 (e.g. 고정된 $E$, $V$, $N$ 값에서의) 에서 가능한 계의 state 수를 나타낸다. 앞의 $E$ (total energy), $V$ (volume), $N$ (particle number) 를 macrostate, 뒤쪽에서 이야기하는 state 를 microstate 라고도 한다. 뭐 고전적으로는 microstate 를 하나, 둘 이렇게 셀 수 있는게 아니라 position volume, momentum volume 등의 개념을 도입해서 비교하는 것이겠지만, 양자역학으로 들어오면 정말 한개인지 두개인지 셀 수 있게 된다. (정말?) 먼저 고전적으로 이해해보자. 아주 단순화시켜서 부피 $V$ 인 곳에 입자 $N$ 개가 있는 경우만 생각해보자. 점입자라고 가정하고, 에너지에 대한 고려는 잠시 접어둡시다. 고전적으로 이런 상태가 가능한 microstate 수를 어찌 구할까? \begin{align*} \Omega &\sim \frac{1}{N!} \int_V \cdots \int_V \Big( dx_1 dx_2 \cdots dx_N \Big)_{\text{position state}} \\ &\sim \frac{1}{N!} V^N \end{align*} $1/N!$는 입자들이 구분이 안될것이기에 붙였고, 1/2/.../N은 입자에 labelling을 한 것이다. 대충 분석해보면 부피가 커질수록 microstate의 수가 증가하는 것을 알 수 있고, 입자수가 증가해도 microstate 수가 증가하는 것을 알 수 있다. 증가하는 정도는 $\frac{V^N}{N!}$에 비례한다. 따라서 정의된 엔트로피의 대충의 결과는 \begin{align*} \frac{S}{k_{\text{B}}} &= \ln \big( \frac{\text{some const}}{N!} V^N \big) \\ &= C - \ln N! + N \ln V \end{align*} 이다. 이것을 가지고 좀 더 가지고 놀아봐야 엔트로피가 무슨 뜻인지 감이 잡히긴 할텐데, 그 전에 조금더 일반화 된 엔트로피의 정의를 하나 더 보고 넘어가자. 앞에서 $\Omega$를 제약조건 하에서 상태의 수라고 하긴 했는데, 아주 엄밀히 따지기 시작하면 이게 골치가 아파진다. (골치가 아파진다기 보단 엄밀한 논리전개에 구멍이 뻥뻥 뚫린다.) 제약조건으로 $E$, $V$, $N$ 를 고정한다고 했는데, 에너지는 보존된다라고 치고 부피도 고정한다고 치는데 입자가 막 화학반응(느린?)을 하고 핵분열하고 핵융합하고 갑자기 다른 입자로 변하는 희박한 확률이기는 하지만 가능은 한 것들까지 계의 가능한 microstate 로 추가해야 하는 것일까? 당장은 너무나 희박한 확률로 일어나서 알려지지 않았지만 나중에라도 이런 제약조건에서 access 가능한 microstate 가 추가로 엄청나게 발견된다면 엔트로피는 어떻게 구해야 하는 것일까? 위와 같은 이유이기도 하고 microstate 의 수를 센다는 개념의 $\Omega$를 구한다는게, 어느게 가능한 state 고 불가능한 state 인지 엄밀히 구분짓기가 쉬운일이 아니다. 그래서 일반화 된 정의가 S \equiv - k_{\text{B}} \sum_{i} p_i \ln p_i 이다. $i$는 microstate 를 나타내고 $p_i$는 엔트로피의 제약조건하에서 이 microstate 의 확률을 말한다. $p_i = 1/\Omega$를 집어넣으면, \begin{align*} \frac{S}{k_{\text{B}}} &= - \sum_{i=1}^{\Omega} \frac{1}{\Omega} \ln \big( \frac{1}{\Omega} \big) \\ &= \ln \Omega \end{align*} 로 원래의 정의가 튀어나오게 된다. 조금 더 분석해보자면, $-p \ln p$는 다음과 같은 그래프로 나타나고.
$-p \ln p$
\sum_{i=1}^{\Omega} p_i = 1 인 제약조건 하에서 엔트로피 S($\equiv - k_{\text{B}} \sum_{i} p_i \ln p_i$)를 최대로 만드는 경우가 각 $p_i$가 같은값인 $1/\Omega$를 갖는 때임을 알 수 있다. (Method of Lagrange multiplier 사용하면 쉽게 증명 됨.) $-p \ln p$가 peak 값을 갖는 점이 $1/\Omega$란 이야기가 아니니 주의를 요한다. 확률 $p_k$가 거의 0에 가까운 것들 ($O(1/\Omega)$와 비교했을때 무시될만한) 은 summation 에 거의 contribution 이 없을거란 것을 알 수 있고. ($p=0$ 근처에서 $-p \ln p$의 기울기가 $\infty$임.) 수년 이상이 걸리는 반응들에 의해 접근 가능한 microstate 들을 어느정도 걸러내고 생각할 수 있는 논리가 생겨났다고 볼 수 있다. 뭐 조금 더 일반화했기에 다르게도 써먹을 수 있기도 하고... 그런데 아주 엄밀히 따지자면 엔트로피는 근본적인(?) 물리량은 아니다. "Entropy can be defined only under your knowledge of information about system. Without that knowledge, or according to the deepness of the knowledge, the entropy is changed." 우리가 계에 관해 알고 있는 정보하에서만 정의되는 양이고, 우리가 계에 관해 더 많이 알게될수록, 더 많이 측정해낼수록, 계속해서 계의 세세한 부분까지 추적할수록 엔트로피의 값은 바뀌게 된다. (또한 상대론 적으로도 변환이 잘 안된다. 질량중심 좌표계에서만 잘 정의되고 시간축을 어떻게 잘라야 하는지도 애매모호한 면이 있음.) ### $\ln$을 취한 이유? 뭐 이런 한계점이나 애매모호한 점이 있다는 것은 우선 대충 넘어가도록 하고 (나중에 어떻게 해결할 수 있을지는 고민하면서) 왜 $\Omega$나 $p$에 $\ln$을 취해서 엔트로피를 정의했는지 그 의미를 간단히 살펴보기로 하자. $M$개의 (독립된) 계가 있다고 했을때, 이 계의 엔트로피를 계산해 보자. 각 계가 가질 수 있는 microstate 의 수가 $\Omega_i$라고 했을 때, 전체 계를 봤을때 가능한 microstate 수는 $\prod_{i=1}^{M} \Omega_i$가 되겠고 이것을 가지고 엔트로피를 표현해 보면, \begin{align*} \frac{S}{k_{\text{B}}} &= \ln \Big( \prod_{i=1}^{M} \Omega_i \Big) \\ &= \sum_{i=1}^{M} \ln \Omega_i \end{align*} 가 된다. 즉 곱셈을 덧셈으로 바꿔주는 효과를 보기 위해서라고 볼 수 있다. 이렇게 되면 전체계의 부피를 계산할 때, 각 계의 부피를 더하는 것처럼 전체 엔트로피도 각 계의 엔트로피를 더한 값 S = \sum_{i=1}^{M} S_i 으로 표현할 수 있게 되는 것이다. $S \equiv - k_{\text{B}} \sum_{i} p_i \ln p_i$ 로 정의된 엔트로피에서도 마찬가지로 전체 계가 특정 microstate $\{i, j, k, \cdots, l\}$ 상태에 있을 확률은 $p_{\{i, j, k, \cdots, l\}}$$= p_{1:i}$ $p_{2:j}$ $p_{3:k}$$\cdots p_{M:l}$이므로 \begin{align*} \frac{S}{k_{\text{B}}} &= - \sum_{i,j,k, \cdots, l} p_{\{i, j, k, \cdots, l\}} \ln p_{\{i, j, k, \cdots, l\}} \\ &= - \sum_{i,j,k, \cdots, l} p_{1:i} ~ p_{2:j} ~ p_{3:k} \cdots p_{M:l} \ln \big( p_{1:i} ~ p_{2:j} ~ p_{3:k} \cdots p_{M:l} \big) \\ &= - \sum_{i,j,k, \cdots, l} p_{1:i} ~ p_{2:j} ~ p_{3:k} \cdots p_{M:l} \big( \ln p_{1:i} + \ln p_{2:j} + \ln p_{3:k} + \cdots + \ln p_{M:l} \big) \\ &= - \sum_{i,j,k, \cdots, l} p_{1:i} ~ p_{2:j} ~ p_{3:k} \cdots p_{M:l} \ln p_{1:i} + \cdots - \sum_{i,j,k, \cdots, l} p_{1:i} ~ p_{2:j} ~ p_{3:k} \cdots p_{M:l} \ln p_{M:l} \\ \end{align*} 가 된다. 각 계의 확률들의 합은 1이므로, i.e. $\sum_{i} p_{m:i} = 1$, \begin{align*} \frac{S}{k_{\text{B}}} &= - \sum_{i,j,k, \cdots, l} p_{1:i} ~ p_{2:j} ~ p_{3:k} \cdots p_{M:l} \ln p_{1:i} + \cdots \\ &~~~~~~~~~~ - \sum_{i,j,k, \cdots, l} p_{1:i} ~ p_{2:j} ~ p_{3:k} \cdots p_{M:l} \ln p_{M:l} \\ &= - \sum_{i} p_{1:i} \ln p_{1:i} \sum_{j} p_{2:j} \sum_{k} p_{3:k} \cdots \sum_{l} p_{M:l} + \cdots \\ &~~~~~~~~~~ - \sum_{i} p_{1:i} \sum_{j} p_{2:j} \sum_{k} p_{3:k} \cdots \sum_{l} p_{M:l} \ln p_{M:l} \\ &= - \sum_{i} p_{1:i} \ln p_{1:i} + \cdots - \sum_{l} p_{M:l} \ln p_{M:l} \\ &= S_1 + S_2 + \cdots + S_M = \sum_{m=1}^{M} S_m \end{align*} 이 된다. 마찬가지로 전체 엔트로피는 각 부분계의 엔트로피의 합이 된다. 뭐 독립된 계들이 아니고 상호작용(interaction)이 있으면 복잡해 지기는 하겠지만, 곱셈 연산을 단순 덧셈으로 변환하여 계산할 수 있다는 점에서 $\ln$ ($\log$) 를 도입했다고 생각하면 되겠다. 엔트로피의 구체적인 의미나 $\ln$을 사용한 다른 이유들은 여기서 다 설명할수는 없겠고 엔트로피를 이렇게 저렇게 더 다뤄보면서 느끼는 것이 최선일 것이다. ## 고립계에서의 시간에 따른 엔트로피 감소 가능성 논증. 이건 따로 정리를 안한건 귀찮아서 ㅡㅡ.... 그런데 좀만 해볼까나?ㅋ 그런데 나 개발해야 하는데;;;;;; 적당히만 정리하고 빠져야지. 우선 entropy 는 information dependent 한 값으로 똑같은 상태의 계에 대해서 물리적으로 unique 하게 정해지는 값이 아니다. Entropy is $\log$ of the possible (accessible) number of states under the certain information about the system. 여기서 정보라는게 우리가 임의로 설정할 수 있는거라. 내가 system 에 대해서 중요하게 바라보는 information 을 P, V, E 로만 잡을 경우랑. 모든 particle 의 position, momentum 을 다 바라본다는 information 으로 바라볼때랑 엔트로피 값은 다르다. 이 entropy 의 정의를 내 말만으로는 믿을 수 없겠다면, Susskind 교수님 강의 를 보자. 몇회차에 나온지는 정확한 기억이 없는데... 분명 초반이긴 함. 어차피 개념적인 논증이니, coin 2개만 우선 생각하자. (이런건 일반적인 $P, V, E$ 들어간 엔트로피로 확장 안된다고 주장하는 사람도 있을텐데... 제발 엔트로피 개념을 제대로 이해하라고 답변할수밖에...) .... 아 작성 귀찮아서 여기서 멈출래 ㅡㅡ... 여기까지만 알려줘도, 물리학에 소질이 좀 있으면 본인이 논증 가능 할듯? 다 퍼먹여줘야 이해를 할래나? 나중에 시간날때 더 정리하겠음. ## Temperature definition from Entropy 여기서 정의된 것은 에너지를 많이 가지고 있다거나 뜨겁고 차갑고의 개념에서 시작한 것이 아니고... \frac{1}{T} \equiv \bigg( \frac{\partial S}{\partial E} \bigg)_{V, N} ## Pressure definition from Entropy 힘 나누기 면적 으로 정의된 압력과는 다르게 시작. 나중에 어떻게 이 두개가 연결되는지를 잘 파악해야 함. \frac{P}{T} \equiv \bigg( \frac{\partial S}{\partial V} \bigg)_{E, N} ## Chemical Potential definition from Entropy \frac{\mu}{T} \equiv - \bigg( \frac{\partial S}{\partial N} \bigg)_{E, V} ## Basic formula of thermodynamics dE = TdS - PdV + \mu dN 왜 이런식이 만족해야 할까? 를 잘 고민해봐야 함. 이게 에너지 보존 법칙으로 보인다면... 약간 잘못 이해한거라고 볼수도. (이유는 본인이 알아서 생각해 보시길. 뭐 아주 틀린 개념은 아니긴 한데, 전 개인적으로 좀 더 엄밀하게/다르게 받아들여서.) ## RRA
  1. Postech - 과학사개론 > 엔트로피 개념에 대한 이해 (저자 - 임경순)
  2. The Theoretical Minimum.com - Lectures on Statistical Mechanics, by Leonard Susskind;
  3. 네이버캐스트 - 변화의 방향, 엔트로피는 증가한다.
  4. Wiki - Entropy(엔트로피), and Laws of thermodynamics(열역학 법칙);
    // Wiki 한글 페이지는 설명이 짧군요. 영어 페이지는 쓸데없이 너무 긴거 같기도 하고... 뭐 지향하는게 백과사전이니 이것저것 다 설명하느라고 그런지도. 시간 있으신 분들은 wiki 페이지 편집에도 기여해 보시길.
  5. Wiki - T-symmetry (Time reversal symmetry);
    // 물리학에서 시간이란 놈이 가장 신기한거 같기도... 시간에 대한 mystery가 가장 나중에 풀릴거라고 생각하는 물리학자들도 많은듯. (시간이란게 너무 광범위하게 물리학에 걸쳐 있어서 양자역학의 mystery나 상대론의 mystery하고도 다 엮여있어서 그렇게 말하는지도.)
  6. Books

  7. Book - Statistical Mechanics, by R. K. Pathria and Paul D. Beale
  8. Method of Lagrange multipliers (English), 2014-03-21; and 최적화, 라그랑지 승수법 (Optimization with the Method of Lagrange multipliers), 2014-03-18; 앞쪽의 영어버전이 더 자세히 작성되어 있음.
저작자 표시 비영리 변경 금지
신고
Posted by 냥냥 kipid
comments powered by Disqus


티스토리 툴바