본문 바로가기

[Physics/Math]/Physics

텐서와 상대론 (Tensor and Relativity) - 0. 텐서 (Tensor) 란?

# 텐서와 상대론 (Tensor and Relativity) - 0. 텐서 (Tensor) 란? Tensor 에 관한 설명입니다. 아직 정리가 완벽히 되어있진 않으니 참고하고 보시길... 많은 수식들로인해 컴퓨터가 느려질 수 있으니 다 본 section 들은 hide 해놓고 보세요. 기초부분이라 생각되는 부분 빼고는 첫 화면에서는 숨겨 (hide) 놨습니다. Show/Hide 버튼을 눌러서 펼쳐보세요. ## PH
  • 2017-05-28 : To SEE.
  • 2014-06-12 : docuK upgrade. css/js through links.
  • 2014-06-11 : docuK upgrade.
  • 2014-03-18 : into docuK format.
## TOC ## Introduction 상대론을 설명하기에 앞서 텐서 (Tensor) 란 놈부터 잠깐 설명해 볼까 한다. 상대론 뿐만 아니라 물리를 제대로 배우려면 tensor 란게 무엇인지를 명확히 알고 있고 잘 다룰줄 알아야 한다. 그만큼 tensor 의 개념과 쓰임은 물리학에서 매우 중요하다. 대학과 대학원에서 물리학과 수업을 들으면서 가끔 tensor 란 말을 교수님들이 하셨는데, 처음엔 도통 뭐를 tensor 라고 정의하는 건지 몰랐다. Transformation 이 같으면 tensor 라고? Matrix 비슷한 거구나? Vector 랑 똑같이 변하면 tensor 야? 그럼 vector 는 tensor 야? Tensor 가 vector 의 한 종류야? Vector 는 정확히 뭐지? 등등 요래저래 헷갈렸었다. 대학원 들어와서 일반 상대론 수업을 들으면서 tensor 에 대해 제대로 배울 기회가 있었는데 생각보다 쉬운 개념이었다. 물리학자마다 tensor 를 설명하는 방법이나 사용하는 방법이 조금씩 다른데 여기서는 내가 이해한, 내가 가장 그럴듯하다고 느끼는 방법과 사용법을 기준으로 이야기하겠다. Wiki 나 인터넷에 tensor 를 검색해보면, 이상한 수식들만 나오고 제대로 된 설명은 거의 못찾았던거 같다. 뭐 다들 제대로 된 설명이겠지만 처음 접하는 사람들이 이해하기에는 난해한 부분들이 많다. Wiki 에서 텐서를 검색하면 다음과 같이 나온다. "Tensor 는 수학과 물리학에서 서로 약간 다른 의미로 사용되는 개념이다. 수학의 다중선형대수학 및 미분기하학 등의 분야에서 텐서는 간단히 말하면 다중선형함수이다." 알아먹을 수 있겠는가? 시작부터 난해하다. 대체 어디에 쓰이는 물건인지? 수학에서 쓰이는 추상적인 tensor 개념은 처음에는 별 도움이 안될 것이기에 물리학과의 입장에서 설명을 시작하겠다. 물리학에서는 자연현상을 설명하기 위해 거의 필수적으로 좌표계를 도입해서 시간과 공간에 숫자를 부여하고 이 숫자들 간의 관계로 법칙을 설명한다. 물리학의 거의 모든것들이 이런 공간과 시간의 개념이 없이는 설명되기 힘들다는 걸 알 수 있다. 시공간 개념과 아무 관계가 없어보이는 것들 (전하량, 질량 등) 도 곰곰히 생각해보면 그 양이나 효과를 측정하거나 이해하기 위해 시간에 따라 공간을 어떻게 이동하는지, 즉 가속도가 생기는지 위치가 변하는지 등으로 특성을 파악한다는 것을 알 수 있다. 하지만 이러한 좌표계나 단위 (unit: SI 단위계 혹은 cgs 단위계 같은), 척도 (scale) 를 도입하는 방법이 딱 한가지로 정해져 있는 것이 아니다. 물리법칙이란 것은 우리가 어떠한 좌표들을 도입하더라도 바뀌거나 하는 것이 아니기 때문에 도입되는 좌표와 무관하게 물리법칙을 기술할 필요성이 있다. 이처럼 도입된 좌표와 무관하게 유일무이하게 자연현상을 기술하기 위해 도입된 개념이 텐서이다. ## Cartesian Coordinate and Flat Space
// 물리학에 쓰이는 많은 것들이 영어로 되어 있어서 영어랑 한글을 섞어씁니다.
내 주변에서 일어나고 있는 일들, 물리현상들, 모든것들을 잘 설명하고 싶다. 어떻게 시작해야 할까? 우선 선대 물리학자들이 닦아놓은 이론들에서 힌트를 얻자. 너무 멀리는 가지말고 그냥 내 주위의 공간들을 생각해보면, 거의 평평한 (Flat) 3차원의 공간과 1차원의 시간으로 이루어져 있는 것을 직관적으로 알 수 있다. 대충 n차원 공간이란? (영어로는 n-dimensional manifold or space: Manifold는 여러번 접혀있다는 뜻의 단어로 공간 (Space) 의 수학적인 이름이라고 보면된다.) n개의 독립변수로 그 공간의 모든 점들 (Points, Positions, or Events) 을 기술할 수 있다는 뜻이다. 우리가 살고 있는 우주를 예로 들면, x, y, z(+time)으로 전 시공간이 기술되어 지니 3(+1)차원을 가진다고 말할 수 있다. 실제 우리 우주가 몇 차원이고 우주가 유한한가 무한한가 등의 이야기는 우선 건너띄자. 저런걸 궁금해하기 전에 가장 가까운 우리 주변, 우리가 직관적으로 보는 것들부터 어떻게 기술해야 하는지 어떻게 이해해야 하는지를 알고나서 이상한 질문들로 나아가도록 하자. 물리의 시작은 어느정도는 직관력에 의지해야 한다 (고 나는 생각한다.). 의지 할수밖에 없다. 직관적으로 애매모호한 것들, "왜 우리 우주가 3(+1)차원이지?" 등 바로 풀릴거같지 않은 문제들은 우선 대충은 받아들이고 나중에 다시 돌아와서 곰곰히 더 고민하고 생각해 보도록 하자. 직곽적으로 이해하고 있는 것들에 대해 물음표를 던지는 것도 중요하지만, 궁금해만 한다고 다 해결되는건 아니니까. 뭔가 그래도 알고 있어야 저런 문제를 풀 수 있지 않겠는가? 우리가 3차원 공간을 기술할 때 많이 쓰는 것이 Cartesian coordinate (카테시안 좌표계) 다. 왜 이러한 좌표계를 쓰는 것일까? 결론부터 말하자면 우리가 사는 세상이 거의 Flat 하고 공간적으로 대칭적 (Isotropic: Rotation에 대해 아직 무엇인지 정확히는 모르겠어도 invariant 한 것이 있다고 직관적으로 느낄 수 있을 것이다.) 이기 때문이라 할 수 있다. 그리고 우주를 지배하는 물리 법칙이 이런 좌표계로 보면 편하다. 하지만 '물리법칙 혹은 관찰결과는 어떤 좌표계를 선택해서 바라보든 누가 바라보든 바뀌면 안된다.' 이것이 tensor 의 시작이다. 상대론의 시작이기도 하고... 모든 물리법칙, 물리이론들의 기반이 되는 가정이다.
이 가정이 틀릴 가능성도 있는데... (이부분은 안읽고 넘어가는게 덜 헷갈릴수도. 재미로만 읽자.) 양자역학의 Many-worlds interpretation (or Multiverse) 개념이 그 중 하나이다. `내가 사는 세상과 다른 사람이 사는 세상이 같다.', `내가 바라보는 과거, 현재, 미래와 다른 사람이 보는 과거, 현재, 미래가 같다.' 라고 당연히 생각해온 것이 틀릴수도 있다는 뜻이다. 뭐 관찰자에 따라 미래가 달라질 수도 있다는 얘기인데... 예를 들자면, '가만히 서있는 A가 본 상황으로는 포수가 총을 쏴서 새를 맞췄는데, 저 멀리 우주선에 타고 있는 B라는 사람은 포수가 총을 쐈지만 새를 못맞추고 빗겨나갔다라고 관측될 수도 있다.' 라는 것이다. '내 세계에서 새는 포수의 총알을 맞고 죽었지만, 다름 사람의 세계에서는 총이 빗겨나가 새는 미래에도 잘 살아간다.' 는 얘기다. 양자역학에서 말하는 확률적 물리법칙에 기반이 되어 나온 개념이라고 알고 있다. (정확히는 나도 모른다.) 대충 첨언하자면 양자역학에 따르면 모든 사건은 확률적으로 일어나는데, 포수가 쏜 총알이 새를 맞출 확률 1/2, 못 맞추고 빗겨갈 확률 1/2으로 일어나서 universe 가 두개 (새가 죽은 우주와 새가 살아있는 우주) 로 갈라졌다는 다소 황당한? 일리있는? 이야기이다. 뭐 양자역학을 조금 배운 사람이라면, 완전 황당하지만은 않을거다. 아무튼 이러한 황당한 얘기는 이쯤에서 넘어가고, 관측자가 누구든간에 사건의 본질은 바뀌지 않는다는 가정하에 진행해 나가자. 뭐 관측자에 따라 다르다면, 물리법칙이 큰 의미가 없을거고... 양자역학도 관측자가 누구든 같은 '확률적' 결과를 예측하긴 하니까. 그리고 'A의 우주에 사는 B'는 새가 죽었다고 A에게 말할 것이고 'B의 우주에서의 A'는 새가 살아있다고 말할 것이기에 우주가 여러개로 갈라질 수는 있어도 서로가 진술하는 내용은 각 우주에서는 일치할 것이므로 크게 문제가 안된다고 할수도 있겠다. 양자역학을 배우면서 사람들이 가끔 하는 실수가 있이서 (나도 처음에 그랬고) 조금만 더 이야기 하겠다. 위 이야기를 들으면 '모든 사건이 확률적으로 일어나는 이유'가 우리가 관찰하는 system 에 대한 초기조건을 정확하게 알고있지 못하기 때문이다라고 오해하기 쉽다. 주사위를 던져서 숫자가 무엇이 나올지 모르는 것처럼. 하지만 양자역학이 이야기하는 것은 이것이 아니다. '수백만 광년 떨어진 분자 하나하나의 움직임까지 똑같이 만들어 놓고 실험을 해봐도 결과가 확률적이다' 라는 것이 양자역학의 주장이다. 즉, 타임머신이 있어서 과거로 돌아가 똑같은 실험을 지켜봐도 결과가 바뀔 수 있다는 뜻이다. 비유해서 설명하자면, 컴퓨터로 영화를 보다가 앞 내용이 궁금해서 10분전으로 돌려 다시 보면 영화 결과가 바뀌는거다. (에고 설명하기 힘들다 헥헥;; 이 얘기할려고 쓴 글은 아니니 이쯤에서 넘어가도록 하겠다.)

Cartesian coordinate 와 공간을 찌그러 트려놓고 본 Cartesian coordinate. 공간을 찌그러 트려놓고 보아도 x축 방향으로 직선운동을 하는 입자는 찌그러진 x축을 따라 구불구불 움직이는 것처럼 보인다. 물리의 더 깊은 이해를 위해서 왜 우리눈에 직선이 직선처럼 보이는지를 상대론적으로 바라볼/고민해볼 필요도 있다.
다시 본론으로 돌아와서, 왜 우리는 우리 주변, 우주가 거의 flat 한 3차원+1차원이라고 느낄까? Figure 을 보자. 왼쪽은 우리가 친숙하고 직관적으로 보는 Cartesian coordinate, 그냥 우리 주변 공간이다. 오른쪽은 왼쪽과 같은 공간인데 고무줄 늘리듯 찌그러트려 놓고 본 상황이다. y축을 따라 직선으로 날아가는 물체 (: (0, 0, 0)에서 +y 방향으로 y축을 따라 날아간다고 하자.) 를 생각해보자. 오른쪽 그림과 같이 공간을 찌그려 트려놓고 봐도 이 물체는 여전히 y축 (파란선) 을 따라 이동할 것이다. 뉴턴의 관성의 법칙 (제 1법칙) 에 대해 들어봤을 것이다.: 아무 힘도 작용하지 않으면 물체는 직진 등속 운동을 한다. 이 법칙이 직관적으로 이해가 가는 사람도 있을테고, 이해가 가지 않는 분들도 있을텐데 (마찰력, 공기저항, 중력, 기타등등의 상황 때문에), 이 법칙을 다른 시각으로 한번 바라볼까 한다. 우주 공간에 떠 있는 상황을 생각하자 (지구 위에 있으면 중력, 공기저항 등이 있으니...). 어차피 많은 사항들이 직관, 눈에 보이는 것에 의존하므로, 쓸데없이 눈에 안보이고 측정하기 힘든 원자 하나를 갖다 놓는다던지 이러진 않겠다. 심지어 생각 실험인데도 말이다. 실제로 모두가 우주 공간에 가서 이런 실험을 할 수도 없을테고 어느정도는 직접 보지 않고도 믿어야 하는 것들이 있다. 물리도 어느정도는 믿음의 학문이니까. 남이 한 실험결과도 믿어야 분석을 할 수 있으니까... 자꾸 말이 옆으로 세는데;; 다시 본론으로 돌아가자. 우주 공간에 물체가 날라간다. 아무 힘도 받지 않고 있다. 이 물체는 어떻게 움직일까? 직관적으로 직진 등속 운동을 한다고 생각하는데 직선이란 과연 무엇인가? 아무 힘도 받지 않는 물체가 움직이는 궤적을 직선이라고 정의한 것 아닐까? 그냥 물체는 공간을 움직이고 있을 뿐이다. 그런데 빛도 마찬가지로 움직이고, 다른 물체도, 우리도 힘을 받지 않으면 같은 방식으로 움직이니 아무힘도 받지 않는 물체가 이동하는 궤적을 직선이라고 정의하면 힘을 받지 않는 (힘이란 무엇일까도 고민해 봐야 할 문제이긴 하다.) 모든 물체는 같은 궤적, 직선을 따라간다. 즉 물체가 직진운동을 하는 것이 아니고, 아무힘도 받지 않는 물체들이, 빛을 포함해서, 초기 속도의 방향이 같다면 같은 경로를 가는 것이고 그 경로를 직선이라고 정의하고 보니 물체가 직진한다고 말하는 것이라고 역으로 생각할수도 있는 것이다. 아무튼 힘을 받지 않는 모든 물체가 직선운동을 한다는 것을 알고 있으니, 그중에서도 빛이 가장 믿을만해 보이니 (다른 물체들은 뭔가 힘이란거 받기 쉽고 직선에서 벗어나기 쉬우니), Cartesian coordinate의 $+x$를 빛이 움직이는 방향으로 잡고 1초동안 움직인 거리를 1로 잡자. 시간 1초가 어떻게 정의되고 거리 1m 가 어떻게 정의 되는지, 혹은 어떻게 정의해야 할지는 글을 참고... $+y$, $+z$는 빛의 electric field 방향, magnetic field 방향으로 잡자. 뭐 그냥 서로 수직하게 3방향 잡는다는 뜻이다. 전자기학 배우면 $\mathbf{E}$의 방향, $\mathbf{B}$의 방향, 빛의 진행 방향이 서로 수직하다고 하니깐... 증명은 알아서 -ㅇ-. $+y$, $+z$방향으로도 빛이 1초동안 이동한 거리를 1로 잡자. 우주가 이런식으로 직진성, 공간적으로 세방향 $(x, y, z)$ 대칭성 (Symmetry, Isotropy) 를 가지고 있으니 굳이 오른쪽과 같이 그리기 보다야 왼쪽과 같이 서로 수직한 3개의 축을 직선으로 잡는 것이 이 세상을 기술하는데 편한 것이다. Cartesian coordinate에서 공간의 모든 점들은 $(x, y, z)$로 기술되고, 이 좌표계에서 vector 라고 불리우는 것들도 많이 다뤄봤을 것이다.
// 얼렁뚱땅 넘어간 부분들이 꽤 된다. 어쩔수 없다. 다 꼼꼼하게 넘어가려고 하다보면 진행되는게 없을테니... 우선 중요하지 않다고 생각되는 부분, 바로 풀릴거 같지 않은 부분들은 넘어가고 뭔가 알아내고 체계를 잡은 다음에 다시 고민하도록 하자. 그래야 더 잘 접근하고 문제들을 풀 방법을 더 잘 궁리해낼 수 있을테니까.
## Tensor the beginning ### Point, Position, or Event Flat space 를 다룰 때, 왜 Cartesian coordinate 를 사용하고 편한지 위에 설명했다. 하지만, 그렇게 좌표를 잡으면 편할 뿐이지 꼭 그렇게 잡을 필요는 없다. Figure 에서와 같이 공간을 찌그러트리는 것이 아니고, 공간은 그대로 놔둔채로 기술하는 좌표계만 임의로 바꾸는 경우를 생각해 보자. 뭐 가장 간단히는 Cartesian coordinate 의 $x, y, z$축의 방향을 회전시키는 것이 있겠고 (Rotation), 원점을 옮기는 방법 (Translation), $x$축만 방향을 바꿔서 right-hand convention (: $\hat{x} \times \hat{y} = \hat{z}$) 을 left-hand convention (: $\hat{x} \times \hat{y} = -\hat{z}$) 으로 바꿀수도 (Inversion, Parity) 있겠다. 3차원의 공간이니 이러한 회전 (Rotation), 대칭 (Inversion), 이동 (Translation) 말고도 임의의 독립변수 3개를 잡아서 전 공간을 표현하기만 하면 어떠한 coordinate 도 괜찮다. $x, y$축의 scale 을 바꿔서 정사각형이 아닌 직사각형의 coordinate 를 만들어도 되고, 평행사변형 형태로 좌표를 잡아도 된다. 특정점에 관하여 isotropic 하게 spherical coordinate $(r, \theta, \phi)$를, 특정직선에 관하여 isotropic 하게 cylinderical coordinate $(\rho, \varphi, z)$를 잡아도 되고, 임의의 평면으로 나눠서 임의의 coordinate $(u, v, w)$를 잡아도 된다. 3차원 공간이라는게 3개의 변수로 공간상의 모든 점을 기술할수 있다는 뜻이니까. 이렇게 임의의 coordinate를 잡아도 우리가 설명하고자 하는 우주의 물리법칙이 바뀌면 안되는데... 이것을 어떻게 구현할 수 있을까?
// 여기서 사용되는 표기 방식은 Chicago convention (Chicago 대학쪽 교수님들이 사용? 정확한 이름은 아닙니다;;) 과 Einstein's summation convention (위 아래 반복되는 index 들은 자동으로 summation을 생략해서 씁니다.) + my own convention 입니다. 일반적으로 널리 쓰이는 표기방식은 아니지만, 최대한 systematic 하게 만들려고 노력하고 있습니다. 이 표기방식대로 tensor 를 이해하시고 나면, 다른 표기방식으로 쓴 tensor 들도 쉽게 이해하실 수 있을거라 생각됩니다. Convention 들에 관한 정리는 section `Index and definition' 을 참고.
우선 space(or manifold) 상의 점들(Point, Position, or Event)은 다음과 같이 나타내도록 한다. \begin{align*} \vec{x} &= x^{\bar{i}} \vec{e}_{\bar{i}} = x \vec{e}_x + y \vec{e}_y + z \vec{e}_z \\ &= x^{i} \vec{e}_{i} = r \vec{e}_r + \theta \vec{e}_{\theta} + \phi \vec{e}_{\phi} \\ &= x^{i'} \vec{e}_{i'} = u \vec{e}_u + v \vec{e}_v + w \vec{e}_w \\ \end{align*} 여기서 $\bar{i}$ (i bar) 는 catesian coordinate 를, 그냥 $i$는 spherical coordinate 를, $i'$ (i prime) 은 임의의 coordinate $(u, v, w)$를 나타낸다. 보통 \begin{align*} \vec{x} &= (x, y, z) \text{ in catesian coordinate} \\ &= (r, \theta, \phi) \text{ in spherical coordinate} \\ &= (u, v, w) \text{ in some coordinate} \\ \end{align*} 형식으로 표현하는 것을 많이 봤을텐데, 숫자만 떡하니 있을 경우에 헷갈리기도 하거니와, Einstein summation 으로 축약해서 쓸수도 없으니 새로운 표기법을 도입했다고 생각하면 된다. (Spherical coordinate 에서 단위벡터를 이용한 $\vec{x}=x \hat{r}$과는 다른 표기법이니 헷갈리지 마시길. 이건 숫자 d개로 d차원상의 position을 기술하는 것, 어떤 coordinate 인지도 표시하면서.) 상황상황마다 $\bar{i}, i, i', i'', i'''$ (i bar, i, i prime, i double prime, i triple prime) 들이 어떤 coordinate 를 지칭할지는 바뀔수도 있으니 헷갈리지 말자. 각 좌표계의 독립변수 3개가 모두 같은 점 $\vec{x}$를 기술하고 있다. 그들 사이의 관계는 다음과 같다. (원점이 같다고 가정.) \begin{align*} r &= \sqrt{x^2 + y^2 + z^2} \\ \theta &= \cos^{-1}{(z/r)} = \cos^{-1}{(z/\sqrt{x^2 + y^2 + z^2})} \\ \phi &= \cos^{-1}{(\frac{x}{r \sin{\theta}})} = \cos^{-1}{(\frac{x}{\sqrt{x^2 + y^2}})}\\ \end{align*} \begin{align*} x &= r \sin{\theta} \cos{\phi} \\ y &= r \sin{\theta} \sin{\phi} \\ z &= r \cos{\theta} \\ \end{align*} \begin{align*} u &= u(x,y,z) \\ v &= v(x,y,z) \\ w &= w(x,y,z) \\ \end{align*} : $u, v, w$는 $(x, y, z)$의 function. 반대로 $x, y, z$도 $(u, v, w)$의 function 으로 나타날 것이다. 각 point 마다 딱 하나의 $(u, v, w)$ set 만 존재하니까. 예를 들어보자. $(x,y,z)$ for Cartesian coordinate; $(r, \theta, \phi)$ for spherical coordinate; $(\rho, \varphi, z)$ for cylinderical coordinate; and they have the same origin. 0 \vec{e}_x + 0 \vec{e}_y + 0 \vec{e}_z = 0 \vec{e}_r + 0 \vec{e}_{\theta} + 0 \vec{e}_{\phi} = 0 \vec{e}_{\rho} + 0 \vec{e}_{\varphi} + 0 \vec{e}_z 5 \vec{e}_x = 5 \vec{e}_r + \frac{\pi}{2} \vec{e}_{\theta} = 5 \vec{e}_{\rho} 3 \vec{e}_y = 3 \vec{e}_r + \frac{\pi}{2} \vec{e}_{\theta} + \frac{\pi}{2} \vec{e}_{\phi} = 3 \vec{e}_{\rho} + \frac{\pi}{2} \vec{e}_{\varphi} r \sin{\theta} \cos{\phi} \vec{e}_x + r \sin{\theta} \sin{\phi} \vec{e}_y + r \cos{\theta} \vec{e}_z = r \vec{e}_r + \theta \vec{e}_{\theta} + \phi \vec{e}_{\phi} 두 좌표계의 원점이 같지 않다면, 0 \vec{e}_x \neq 0 \vec{e}_u . 0 \neq 0 in two different coordinates of which origin points are different. 위와 같은 등식이 성립하는 것이다. 많이들 Cartesian 에서의 $\vec{x}$를 `변위 벡터 (vector)' 라고 배웠을 텐데, tensor 입장에서 $\vec{x}$는 벡터가 아니다. 단순히 위치를 나타내는 기호이다. P 점은 $\vec{x}_{\text{P}}$로 표시된다. (Flat 한 space 에서는 quasi-텐서로 볼 수도 있을거 같긴 하다만... 변위는 엄밀한 의미에서의 텐서가 아니라고 알고 있자.) Manifold (or space) 상의 모든 점은 3개의 parameter 로 unique 하게 기술된다. (3차원 공간의 정의라고 생각해도 되겠다.)
[Be careful] \begin{align*} \vec{x}_{\text{P}} &= 5 \vec{e}_x \\ &= 5 \vec{e}_r + \frac{\pi}{2} \vec{e}_{\theta} \\ &= 5 \vec{e}_{\rho} \end{align*} `='의 의미가 일반 수학(대수학)에서 쓰이는 의미와는 다르다는 것에 주의. Position 사이의 덧셈, 뺄셈은 같은 coordinate 에서만 정의된다. 하늘에서 이런 정의가 떨어진게 아니고 그렇게만 쓰자고 약속하자는 뜻이다. 안그러면 이상해지니까.
  1. This is a legal operation. 같은 coordinate 에서 position 의 덧셈이 어떻게 정의되는지는 굳이 설명 안해도 되리라고 본다. \left( 5 \vec{e}_x + 3 \vec{e}_y \right) + \left( 2 \vec{e}_x + 1 \vec{e}_y - 3 \vec{e}_z \right) = \left( 7 \vec{e}_x + 4 \vec{e}_y - 3 \vec{e}_z \right) \left( 5 \vec{e}_r + \frac{\pi}{4} \vec{e}_{\theta} \right) + \left( \frac{ \pi}{4} \vec{e}_{\theta} + \pi \vec{e}_{\phi} \right) = \left( 5 \vec{e}_r + \frac{\pi}{2} \vec{e}_{\theta} + \pi \vec{e}_{\phi} \right)
  2. This is an illegal operation. 다른 coordinate 사이의 덧셈은 정의되지 않는다. 잘 이해가 안된다면 origin 이 다른 두 coordinate 를 생각해보라. 다른 coordinate 사이의 덧셈은 순서에 따라서도 뒤죽박죽인 결과가 나타난다. \left( 1 \vec{e}_x \right) + \left( 1 \vec{e}_r \right) \neq \left( 1 \vec{e}_x + 1 \vec{e}_z \right)
### (0,0) Tensor: Scalar 이제 가장 간단한 $\binom{0}{0}$ Tensor (: called Scalar) 에 대해 알아보자. - Scalar: Uniquely defined number which is independent of coordinate chosen. - 스칼라(Scalar)란?: 좌표계에 관계없이 유일무이하게 정해진 숫자이다. 스칼라의 예 : 전자의 전하량 $e$, 전자의 질량 $m$ 등. cf. 가끔 $E = m c^2$ 쓰면서 질량이 속도에 따라 바뀐다고 설명하는($m = \gamma m_0$) 경우가 있는데, 괜히 상대론에 대해 오해만 일으키는 괴상한 해석이니 무시하기 바란다. 에너지는 scalar 가 아니고, $m_0$가 scalar 이다. (괜히 0을 붙여놔서 더 헷갈리게 만들어 놨다. 나는 0을 띄어내고 쓰겠다. 즉, m은 coordinate independent 한 값이다.)
잠깐 논문에 자주 쓰이는 영어 약어 설명.
i.e. = (id est 라틴어) that is, in other words; 다시 말해서, 바꿔 말하면
e.g. = (exempli gratia 라틴어) for example; 예를 들면
cf. = (confer 라틴어) compare; 비교하라 //
- Scalar field: Uniquely defined numbers, defined at each and every point of manifold (space), which are independent of coordinate chosen. They can be complex numbers. - 스칼라 필드(Scalar field)란?: 좌표계에 관계없이 유일무이하게 manifold(space) 상의 모든 지점에 정해진 숫자이다. \begin{align*} \Phi(\vec{x}) &= \bar{\Phi}(\{x^{\bar{i}}\}) = \bar{\Phi}(x, y, z) \\ &= \Phi(\{x^i\}) = \Phi(r, \theta, \phi) \\ &= \Phi'(\{x^{i'}\}) = \Phi'(u, v, w) \\ \end{align*} 스칼라 필드의 예 : Potential, 그냥 position 의 unique function 이면 모두 scalar field. Position 이 어떠한 coordinate 로 표현되더라도 scalar field 값은 각 position 에서 unique 하게 결정된다. 예를 들자면, \begin{align*} \Phi(\vec{x}) &= \bar{\Phi}(\{x^{\bar{i}}\}) = \bar{\Phi}(x, y, z) = x^2 + y + 2 z^3 \\ &= \Phi(\{x^i\}) = \Phi(r, \theta, \phi) = (r\sin\theta\cos\phi)^2 + (r\sin\theta\sin\phi) + 2 (r\cos\theta)^3\\ &= \Phi'(\{x^{i'}\}) = \Phi'(u, v, w) = \big(x(u,v,w)\big)^2 + y(u,v,w) + 2 \big(z(u,v,w)\big)^3\\ \end{align*} 와 같다. ### (1,0) Tensor: Vector Tensor 의 특징이 `우리가 어떤 coordinate 를 선택하든 같은 설명을 하도록' 이라는 것을 다시한번 강조하면서, 이제 $\binom{1}{0}$ Tensor (: called Vector, or Contra Vector, or Contra-variant Vector) 에 대해 알아보자.

Uniquely parameterized curve C.
Figure 와 같이 색을 바꾸면서, 혹은 숫자가 바뀌면서, 혹은 시간 t가 바뀌면서 이동한 물체를 설명해야 하는 상황을 생각하자. 시간도 상대론에 가면 우리가 우주를 기술하기 편한 chart, or coordinate 를 도입한 것에 불과하지만 우선 tensor 의 이해를 위해 여기에서 시간 (time) 은 coordinate 가 아닌 universal unique parameter 라고 보자. Cartesian coordinate 에서는 물체가 지나가는 점들이 $(x, y, z)(\lambda)$로 표현 될 것이다. $x, y, z$가 각각 $\lambda$에 따라 변해서 위의 curve를 기술하게 된다. \begin{align*} \vec{x}_{\text{C}}(\lambda) &= x_{\text{C}}^{\bar{i}}(\lambda) \vec{e}_{\bar{i}} = x_{\text{C}}(\lambda) \vec{e}_x + y_{\text{C}}(\lambda) \vec{e}_y + z_{\text{C}}(\lambda) \vec{e}_z \\ &= x_{\text{C}}^{i}(\lambda) \vec{e}_{i} = r_{\text{C}}(\lambda) \vec{e}_r + \theta_{\text{C}}(\lambda) \vec{e}_{\theta} + \phi_{\text{C}}(\lambda) \vec{e}_{\phi} \\ &= x_{\text{C}}^{i'}(\lambda) \vec{e}_{i'} = u_{\text{C}}(\lambda) \vec{e}_u + v_{\text{C}}(\lambda) \vec{e}_v + w_{\text{C}}(\lambda) \vec{e}_w \\ \end{align*} 여기서 parameter $\lambda$는 우리가 잡는 coordinate 에 무관한 (coordinate independent) unique physical quantity 다. 이러한 coordinate independent parameter 에는 어떤것들이 있을지, 혹은 어떻게 parameter 를 잡아야 coordinate 에 상관없이 unique 하게 정해질지도 나중에 고민해보자. Scalar parameter 라고 이름 붙여도 될라나? Cartesian coordinate 에서는 물체가 지나가는 점들이 $(x_{\text{C}}, y_{\text{C}}, z_{\text{C}})(\lambda)$로 표현 될 것이다. 많이들 $\vec{x}_{\text{C}}$도 `변위 vector'라고 배웠을 텐데, (덧셈, 뺄셈, 내적, 외적이 되는...) tensor 입장에서 변위는 vector 가 아니다. (다시 강조한다.) $\vec{x}_{\text{C}}$는 위에서 말했듯이 좌표점 (Point, Position, or Event) 이라고 부른다. 왜 그런지에 대한 설명은 이 글을 모두 읽어본 후 각자 알아서 해보자. (Tensor 에 대해 조금 공부하고 나면 왜 그런지 금방 알게 될 것이다. 여기서는 설명을 바로 해주지 않고 넘어가고, 벡터에 대해 조금 더 설명한 뒤에 다시 돌아오자.) Tensor 입장에서 vector가 정의되는 것은 \frac{d \vec{x}_{\text{C}}(\lambda)}{d \lambda} 형태이다. Vector 란 우선 특정 좌표점 (Point, Position, or Event) 이 정해져야하고 이 좌표점에서 근처의 다른 어느좌표로/어느방향으로 어떠한 빠르기/세기로 흘러가려고 하는지를 나타내는 것이라 할 수 있겠다. 여기서 말하는 빠르기/세기라 함은 parameter $\lambda$가 변하는 것에 따라, $\lambda$의 변화에 비해 얼마나 빠르게 움직이느냐를 뜻한다. 이러한 $\lambda$가 시간일 경우 일반적으로 생각되는 빠르기랑 일치하겠지만, 위에 이야기 했드시 이런 coordinate independent unique parameter 가 어떠한 것들이 있고, 어떻게 정의될 수 있을지는 곰곰히 생각을 해봐야 할 것이다. 이것을 Cartesian coordinate 에서 나타내면 \frac{d \vec{x}_{\text{C}}(\lambda)}{d \lambda} = \bigg( \frac{d x_{\text{C}}(\lambda)}{d \lambda}, \frac{d y_{\text{C}}(\lambda)}{d \lambda}, \frac{d z_{\text{C}}(\lambda)}{d \lambda} \bigg) . 위를 조금 더 systematic하게 보면, \frac{d \vec{x}_{\text{C}}(\lambda)}{d \lambda} = \frac{d x_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial x} + \frac{d y_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial y} + \frac{d z_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial z} . 이를 우리에게 익숙한 형태로 바꿔보면, \frac{d \vec{x}_{\text{C}}(\lambda)}{d \lambda} = \frac{d x_{\text{C}}(\lambda)}{d \lambda} \hat{x} + \frac{d y_{\text{C}}(\lambda)}{d \lambda} \hat{y} + \frac{d z_{\text{C}}(\lambda)}{d \lambda} \hat{z} . 즉, x, y, z 방향 단위벡터들이 다음과 같이 표현된다. \frac{\partial \vec{r}}{\partial x} = \hat{x}, \qquad \frac{\partial \vec{r}}{\partial y} = \hat{y}, \qquad \frac{\partial \vec{r}}{\partial z} = \hat{z} . 위 상황을 일반화 해보자. \begin{align*} \frac{d \vec{x}_{\text{C}}(\lambda)}{d \lambda} &= \frac{d x_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial x} + \frac{d y_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial y} + \frac{d z_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial z} \\ &= \frac{d r_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial r} + \frac{d \theta_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial \theta} + \frac{d \phi_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial \phi} \\ &= \frac{d u_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial u} + \frac{d v_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial v} + \frac{d w_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial w} \end{align*} 여기서 $\partial \vec{r} / \partial x^{\bar{i}}$, $\partial \vec{r} / \partial x^i$, $\partial \vec{r} / \partial x^{i'}$ 들은 coordinate basis 이다. Non-coordinate basis 란 것도 있다. $r, \theta, \phi$방향 단위벡터들, $(\hat{r}, \hat{\theta}, \hat{\phi})$이 이에 해당. Non-coordinate basis 들이 요긴하게 쓰일때도 있지만 tensor 를 이해하는데에는 별 도움이 안되니 잠시 패스. 이것이 vector 의 일반적인 형태, 개념적인 이해라고 할 수 있다. 아직 "이게 뭐야?", "뭔가 이상해. 부족해." 하실텐데, 첫술에 배부르랴. $\binom{0}{1}$ tensor 인 one-form 과 contraction (: Combining vector and one-form to scalar) 까지는 알고나야 "아 텐서란게 이런거였군!" 하실테니, 조금만 더 참고 보자. 조금 더 알아보기 쉽게, systematic 하게 vector 및 모든 tensor 들을 표현하기 위해 Chicago convention + Einstein's summation convention 을 도입하여 vector $V$를 다음과 같이 표기하기로 약속하자. V^{\text{A}} = V^{\bar{i}} e_{\bar{i}}^{\text{A}} = V^{j} e_{j}^{\text{A}} = V^{k'} e_{k'}^{\text{A}} 문자 $V$에다가 윗첨자를 붙여 쓰는 방식이다. 윗첨자는 항상 A,B,C,D,...,Y,Z로 쓰기로 약속한다. 즉, 문자 오른쪽 위에 첨자 A,B,C... 가 붙으면 모두 vector이다. $e_{\bar{i}}^{\text{A}}, e_{j}^{\text{A}}, e_{k'}^{\text{A}}$ 들은 vector 의 basis 들이다. Coordinate basis 라고도 부르며, 윗첨자 A가 있다는 것은 이놈들도 vector 라는 뜻이다. 즉 basis vector 이다. 좌표점을 나타내기 위해 도입한 $\vec{e}_i$들과는 완전히 다른 개념의 것이니 헷갈리지는 말자. (이 둘은 비슷한 점이 있긴 하다. 그래도 둘을 같은것이라고 생각하는 사람이 있을지도 몰라서 강조한다. 둘은 다르다.) $\vec{e}_i$들을 좌표점을 systematic 하게 표현하기 위해 도입했다면 $e_{i}^{\text{A}} (=\frac{\partial \vec{r}}{\partial x^i})$들은 vector 를 systematic 하게 표현하기 위해 도입한 개념이라 생각하면 되겠다. $V^{\bar{i}}, V^{j}, V^{k'}$들은 vector $V^{\text{A}}$의 coordinate component 라고 부르며, 이들은 엄밀히 말한다면 vector 는 아니고 그냥 숫자이다. 이것은 바로 이해가 안될수도 있으니 우선 대충 넘어가고, 다읽고 나중에 다시 생각해 보자. 위의 결과들을 아래 표기방식에 맞추면, \begin{align*} V^{\text{A}} &= \frac{d \vec{x}_{\text{C}}(\lambda)}{d \lambda}^{\text{A}} \\ &= \frac{d}{d \lambda} \Big( x_{\text{C}}^{\bar{i}} \vec{e}_{\bar{i}} \Big)^{\text{A}} \\ &= \frac{d x_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial x}^{\text{A}} + \frac{d y_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial y}^{\text{A}} + \frac{d z_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial z}^{\text{A}} \\ &= V^x e_x^{\text{A}} + V^y e_y^{\text{A}} + V^z e_z^{\text{A}} \\ \end{align*} \begin{align*} &= \frac{d}{d \lambda} \Big( x_{\text{C}}^{i} \vec{e}_{i} \Big)^{\text{A}} \\ &= \frac{d r_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial r}^{\text{A}} + \frac{d \theta_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial \theta}^{\text{A}} + \frac{d \phi_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial \phi}^{\text{A}} \\ &= V^r e_r^{\text{A}} + V^\theta e_\theta^{\text{A}} + V^\phi e_\phi^{\text{A}} \\ \\ &= \frac{d}{d \lambda} \Big( x_{\text{C}}^{i'} \vec{e}_{i'} \Big)^{\text{A}} \\ &= \frac{d u_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial u}^{\text{A}} + \frac{d v_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial v}^{\text{A}} + \frac{d w_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \vec{r}}{\partial w}^{\text{A}} \\ &= V^u e_u^{\text{A}} + V^v e_v^{\text{A}} + V^w e_w^{\text{A}} . \\ \end{align*} Vector 를 spherical coordinate 에서 쓸 때 많이들 단위벡터 $\hat{r}, \hat{\theta}, \hat{\phi}$를 자주 사용하셨을텐데, tensor 입장에서 이런 basis 들은 non-coordinate basis 로 tensor 개념을 적용하는데 좋은 basis 는 아니다. Tensor 입장에서 vector 의 basis 는 coordinate basis 라고 불리고 위와 같은 형태로 정의된다. Coordinate basis 가 아닌 모든 vector basis 를 non-coordinate basis 라고 부른다고 생각하면 된다. 단위벡터 $\hat{r}, \hat{\theta}, \hat{\phi}$ 같은것들이 이에 해당. $e_{\theta}^{A} = \partial \vec{r} / \partial \theta = r \hat{\theta}$. Vector 의 개념적인 이해를 위해 parametized curve 를 도입했는데, 꼭 한개의 parametized curve 를 도입해서 vector 를 이해할 필요는 없다. 이런 식의 vector 는 이 한개의 curve 가 위치한 좌표점에서만 vector 들이 존재하게 되어 vector field 를 이해하는데 방해가 될수도 있다. - Vector field: Uniquely defined vectors, defined at each and every point, which are independent of coordinate chosen. - 벡터 필드 (Vector field) 란?: 좌표계에 관계없이 유일무이하게 manifold (space) 상의 모든 지점에 정해진 vector 들이다. 즉 전 공간에 정의되어 있는 vector field 를 이해하려면, 각 좌표점에서 각각 scalar parameterized 된 curve 를 상상하고 이 scalar parameter 가 변함에 따라 어느방향으로 얼마나 빠르게 좌표가 변해가는지를 나타내는 것이 그 지점에서의 vector 라고 이해하면 되겠다. 이로서 가장 기초적인 tensor 중 하나인 vector 에 대해 알아보았다. Tensor 를 제대로 이해하려면 one-form 과 contraction 까지는 이해해야한다!! ### (0,1) Tensor: One-form (Co-Vector) 이제 vector 와 비슷하지만 약간은 다른, $\binom{0}{1}$ tensor (: called One-form, or Co-vector, Co-variant vector) 에 대해 알아보자. One-form 은 우리가 흔히 알고 있는 gradient $\vec{\nabla}$의 일반화라고 생각하면 된다. 이 gradient (or one-form) 를 쉽게 이해하기 위해 위에서 설명했던 scalar field 라는 것을 도입하자. 공간상 점들 (points) 에 각각 고유하게 (uniquely) 값들이 정해져 있는 scalar field $\Phi(\vec{x})$에 gradient 를 취해보자. \vec{\nabla} \Phi = \frac{\partial \Phi}{\partial x} \hat{x} + \frac{\partial \Phi}{\partial y} \hat{y} + \frac{\partial \Phi}{\partial z} \hat{z} 즉, 좌표점이 변함에 따라 scalar field $\Phi$가 어떻게 변할지를 나타내는 것이 gradient (or one-form) 이라 하겠다. 이를 조금 더 systematic 하게 보면, \begin{align*} \mathbf{d} \Phi &= \frac{\partial \Phi}{\partial x} \mathbf{d} x + \frac{\partial \Phi}{\partial y} \mathbf{d} y + \frac{\partial \Phi}{\partial z} \mathbf{d} z \\ &= \frac{\partial \Phi}{\partial r} \mathbf{d} r + \frac{\partial \Phi}{\partial \theta} \mathbf{d} \theta + \frac{\partial \Phi}{\partial \phi} \mathbf{d} \phi \\ &= \frac{\partial \Phi}{\partial u} \mathbf{d} u + \frac{\partial \Phi}{\partial v} \mathbf{d} v + \frac{\partial \Phi}{\partial w} \mathbf{d} w \\ \end{align*} 와 같이 표현된다. 이것이 바로 one-form 이다. Vector 와 마찬가지로 one-form 도 Chicago convention + Einstein's summation convention 을 도입하여 one-form $W$를 다음과 같이 표기하기로 하자. W_{\text{A}} = W_{\bar{i}} e^{\bar{i}}_{\text{A}} = W_{j} e^{j}_{\text{A}} = W_{k'} e^{k'}_{\text{A}} 문자 $W$에다가 아래첨자 A,B,C,...,Y,Z를 쓰는 형식이다. Vector 는 윗첨자, one-form 은 아래첨자이다. $e^{\bar{i}}_{\text{A}}, e^{j}_{\text{A}}, e^{k'}_{\text{A}}$들은 basis one-form, $W_{\bar{i}}, W_{j}, W_{k'}$들은 one-form $W_{\text{A}}$의 coordinate component 라고 부른다. Vector 와 마찬가지로 basis 들만 one-form (tensor) 이고 coordinate component 는 그냥 숫자이다. 위의 결과들을 표기방식에 맞추면, \begin{align*} W_{\text{A}} &= \mathbf{d}_{\text{A}} \Phi = \nabla_{\text{A}} \Phi = \big( \nabla_{\bar{i}} \Phi \big) e^{\bar{i}}_{A} = \big( \nabla_{i} \Phi \big) e^{i}_{A} = \big( \nabla_{i'} \Phi \big) e^{i'}_{A} \\ &= e^{\bar{i}}_{A} \partial_{\bar{i}} \Phi = e^{i}_{A} \partial_{i} \Phi = e^{i'}_{A} \partial_{i'} \Phi \\\\ \end{align*} \begin{align*} &= \frac{\partial \Phi}{\partial x} \mathbf{d}_{\text{A}} x + \frac{\partial \Phi}{\partial y} \mathbf{d}_{\text{A}} y + \frac{\partial \Phi}{\partial z} \mathbf{d}_{\text{A}} z \\ &= W_{x} e^{x}_{\text{A}} + W_{y} e^{y}_{\text{A}} + W_{z} e^{z}_{\text{A}} \\\\ &= \frac{\partial \Phi}{\partial r} \mathbf{d}_{\text{A}} r + \frac{\partial \Phi}{\partial \theta} \mathbf{d}_{\text{A}} \theta + \frac{\partial \Phi}{\partial \phi} \mathbf{d}_{\text{A}} \phi \\ &= W_{r} e^{r}_{\text{A}} + W_{\theta} e^{\theta}_{\text{A}} + W_{\phi} e^{\phi}_{\text{A}} \\\\ &= \frac{\partial \Phi}{\partial u} \mathbf{d}_{\text{A}} u + \frac{\partial \Phi}{\partial v} \mathbf{d}_{\text{A}} v + \frac{\partial \Phi}{\partial w} \mathbf{d}_{\text{A}} w \\ &= W_{u} e^{u}_{\text{A}} + W_{v} e^{v}_{\text{A}} + W_{w} e^{w}_{\text{A}} \\ \end{align*} Scalar field 를 도입해 설명한 덕분에 one-form 의 경우는 자동적으로 one-form field 개념이 이해되었을 것이다. One-form 이란 이렇게 위치 (좌표점) 가 바뀜에 따라 각 위치 (좌표점) 마다 정해져 있는 scalar 값이 얼마나 어떻게, 위치가 바뀌는 방향에 따라 변하는가를 나타내는 것이라 할 수 있겠다. 이로서 가장 기초적인 tensor 중 하나인 one-form 에 대해서도 어느정도 알아보았다. ## Contraction: Vector, One-form to Scalar Vector 와 one-form 의 설명을 듣고나니 이 둘을 잘 조합하면 무언가 나올것 같지 않은가? 다음 식을 보자. \frac{d \Phi(\vec{x}_{\textrm{C}}(\lambda))}{d \lambda} Figure 의 curve 를 따라 scalar field $\Phi$값이 어떻게 변하는지를 나타내는 이 식은 scalar field 와 scalar parameter 로 이루어져 있으므로 coordinate independent 해야 한다. 즉, 위 값도 scalar 여야 한다. 위 식에 partial derivative (편미분) 를 적용해 분석해보면, \begin{align*} \frac{d \Phi}{d \lambda} &= \frac{d x_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \Phi}{\partial x} + \frac{d y_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \Phi}{\partial y} + \frac{d z_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \Phi}{\partial z} \\ &= \frac{d r_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \Phi}{\partial r} + \frac{d \theta_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \Phi}{\partial \theta} + \frac{d \phi_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \Phi}{\partial \phi} \\ &= \frac{d u_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \Phi}{\partial u} + \frac{d v_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \Phi}{\partial v} + \frac{d w_{\text{C}}(\lambda)}{d \lambda} \frac{\partial \Phi}{\partial w} \end{align*} 와 같이 표현된다. Vector 와 one-form 에 대해 설명할 때 많이 봐왔던 식들 아닌가? 이러한 힌트들로 vector 와 one-form 을 조합해 scalar 로 만드는 contraction (축약, 축소) 를 다음과 같이 정의해보자. V^{\text{A}} W_{\text{A}} = V^{\bar{i}} W_{\bar{i}} = V^{j} W_{j} = V^{k'} W_{k'} Vector 의 윗첨자와 one-form 의 아래첨자가 같은 경우 contraction 이 된다. Vector 와 gradient 의 내적과 비슷하다. 조금 더 풀어서 분석해보면, \begin{align*} V^{\text{A}} W_{\text{A}} &= V^{i} e_i^{\text{A}} W_{j} e^j_{\text{A}} \\ &= V^{i} W_{j} e_i^{\text{A}} e^j_{\text{A}} \\ &= V^{i} W_{j} \delta_i^j \\ &= V^{i} W_{i} \end{align*} 즉 같은 coordinate 에서의 vector basis 와 one-form basis 의 contraction 은 Kronecker delta 로 정한다. e_{\bar{i}}^{\text{A}} e^{\bar{j}}_{\text{A}} = e_i^{\text{A}} e^j_{\text{A}} = e_{i'}^{\text{A}} e^{j'}_{\text{A}} = \delta_{i}^{j} = \left\{\begin{array}{ll} 1 & \textrm{if } i=j \\ 0 & \textrm{if } i\neq j . \\ \end{array} \right. 이제 왜 tensor 가 물리법칙을 기술하는데 중요하고 편리한지 약간의 감이 올텐데, 가장 큰 장점이라면 coordinate independent 하게 물리법칙을 기술할 수 있다는 것이다. Coordinate 라는 것은 사람이 물리현상을 잘 기술하기 위해 임의로 만든 개념이다. 우주에는 그런게 존재하지 않는데, 시간이란 것에 따라 위치가 변하고 하는 물리현상들은 어쩔수 없이 (시간, 공간, 위치라는 개념 자체들부터가 coordinate 와 밀접한 관련) 우리가 분석하고 이해하기 쉽게 coordinate, chart 를 도입해서 설명한다. 하지만 이런 물리법칙이란 것이 우리가 어떠한 coordinate 기준을 잡았는냐에 따라 바뀌면 안된다는 것이다. 이것이 tensor 란 개념의 핵심이다. $\vec{F}=m\vec{a}$를 여기서 배운 tensor form으로 쓰면 F^{\text{A}} = m a^{\text{A}} = \frac{d}{dt} p^{\text{A}} 이 식은 어떤 coordinate 를 잡고 기술해도 만족하는 식이다. 만족하도록 식을 만들어야 한다. Cartesian 으로 잡든, spherical 로 잡든, 임의의 coordinate 로 잡든지 말이다. 대부분 vector 형태로 저 식을 봤을텐데, vector (혹은 gradient) 의 systematic generalization 이 tensor 라고 생각하면 된다.
Component 들과 basis 들이 coordinate 에 따라 어떻게 transform 하는지도 알아야 tensor 를 잘 써먹을 수 있는데, 이는 간단히 식으로만 표현하겠다. 우선 표기를 간단히 하기위한 목적으로 다음과 같은 기호를 정의해서 쓰자. \Lambda^{i}_{\bar{j}} \equiv \frac{\partial x^{i}}{\partial x^{\bar{j}}}, \qquad \Lambda^{k'}_{j} \equiv \frac{\partial x^{k'}}{\partial x^{j}}, \qquad \Lambda^{i}_{j'} \equiv \frac{\partial x^{i}}{\partial x^{j'}}, ... 정의에 의해 다음과 같은 성질도 만족한다. \Lambda^{j'}_{i} \Lambda^{k}_{j'} = \frac{\partial x^{j'}}{\partial x^{i}} \frac{\partial x^{k}}{\partial x^{j'}} = \frac{\partial x^{k}}{\partial x^{i}} = \delta^{k}_{i} 위에서 vector와 one-form을 설명한 것을 참고로 하여 다음과 같은 transform이 가능함을 알 수 있다. \begin{align*} V^{\text{A}} &= V^i e_i^{\text{A}} \\ &= \Lambda^i_{j'} V^{j'} e_i^{\text{A}} = V^{j'} \Lambda^i_{j'} e_i^{\text{A}} = V^{j'} e_{j'}^{\text{A}} \\ &= V^i \Lambda^{\bar{k}}_{i} e_{\bar{k}}^{\text{A}} = \Lambda^{\bar{k}}_{i} V^i e_{\bar{k}}^{\text{A}} = V^{\bar{k}} e_{\bar{k}}^{\text{A}} \\ \end{align*} \begin{align*} W_{\text{A}} &= W_i e^i_{\text{A}} \\ &= \Lambda^{\bar{k}}_{i} W_{\bar{k}} e^i_{\text{A}} = W_{\bar{k}} \Lambda^{\bar{k}}_{i} e^i_{\text{A}} = W_{\bar{k}} e^{\bar{k}}_{\text{A}} \\ &= W_i \Lambda^i_{j'} e^{j'}_{\text{A}} = \Lambda^i_{j'} W_i e^{j'}_{\text{A}} = W_{j'} e^{j'}_{\text{A}} \\ \end{align*} \begin{align*} V^{\text{A}} W_{\text{A}} &= V^i W_i \\ &= \Lambda^i_{j'} V^{j'} W_i = V^{j'} \Lambda^i_{j'} W_i = V^{j'} W_{j'} \\ &= V^i \Lambda^{\bar{k}}_{i} W_{\bar{k}} = \Lambda^{\bar{k}}_{i} V^i W_{\bar{k}} = V^{\bar{k}} W_{\bar{k}} \\ \end{align*} 규칙들은 쉽게 찾을 수 있을 것이다.
##[.hiden] General (m,n) Tensor 이제 일반적인 $\binom{m}{n}$ tensor 로의 확장을 알아보자. 위에서 전개해나간 vector 와 one-form, contraction 의 성질들을 일반적인 $\binom{m}{n}$ tensor 에서도 잘 써먹을 수 있도록 적절히 정의해야 할 것이다. 우선 $\binom{m}{n}$ tensor 는 다음과 같이 표기하기로 하자. T^{ABC\cdots}_{EFG\cdots} with $m$ upper indices $ABC\cdots$ and $n$ lower indices $EFG\cdots$. 이 때 이 $\binom{m}{n}$ tensor 가 component 와 basis 로 어떻게 표현되어야 할까를 보면 직관적으로 다음과 같이 된다고 정의할 수 있겠다. T^{ABC\cdots}_{EFG\cdots} = T^{ijk\cdots}_{pqr\cdots} e_{i}^{A} e_{j}^{B} e_{k}^{C} \cdots e^{p}_{E} e^{q}_{F} e^{r}_{G} \cdots = T^{ijk\cdots}_{pqr\cdots} e_{i~j~k}^{ABC} e_{EFG}^{p~q~r} \cdots (나중에 index lowering and raising 을 할 때 위치가 헷갈리지 않게 하려고 위아래 순서가 명확하도록 T^{ABC\cdots}_{~~~~~~~~EFG\cdots} 와 같이 표기하는 경우가 많다.) 기준이 되는 coordinate 에서 이 tensor component 들이 다음과 같이 주어질 때, \begin{align*} T^{ABC\cdots}_{EFG\cdots} &= T^{\bar{i}\bar{j}\bar{k}\cdots}_{\bar{p}\bar{q}\bar{r}\cdots} e_{\bar{i}~\bar{j}~\bar{k}}^{ABC} e_{EFG}^{\bar{p}~\bar{q}~\bar{r}} \cdots \\ &=T^{\bar{i}\bar{j}\bar{k}\cdots}_{\bar{p}\bar{q}\bar{r}\cdots} \Lambda_{\bar{i}\bar{j}\bar{k}}^{lmn} \Lambda_{uvw}^{\bar{p}\bar{q}\bar{r}} \cdots e_{l~m~n}^{ABC} e_{EFG}^{u~v~w} \cdots \\ &= T^{lmn\cdots}_{uvw\cdots} e_{l~m~n}^{ABC} e_{EFG}^{u~v~w} \cdots . \end{align*} 즉 component 들은 다음과 같이 변함을 알 수 있다. T^{lmn\cdots}_{uvw\cdots} = T^{\bar{i}\bar{j}\bar{k}\cdots}_{\bar{p}\bar{q}\bar{r}\cdots} \Lambda_{\bar{i}\bar{j}\bar{k}}^{lmn} \Lambda_{uvw}^{\bar{p}\bar{q}\bar{r}} \cdots 굉장히 단순하다! Chicago convention 의 장점 중 하나는 두가지 이상의 coordinate 를 섞어서 tensor 를 표현할 수 있다는 점이다. 즉 T^{ABC\cdots}_{EFG\cdots} = T^{ij\bar{k}\cdots}_{p'q'\tilde{r}\cdots} e_{i~j~\bar{k}}^{ABC} e_{EFG}^{p'q'\tilde{r}} \cdots 로도 표현될 수 있다. 여기서 component 는 T^{ij\bar{k}\cdots}_{p'q'\tilde{r}\cdots} = T^{\bar{l}\bar{m}\bar{k}\cdots}_{\bar{u}\bar{v}\bar{w}\cdots} \Lambda^{ij}_{\bar{l}\bar{m}} \Lambda_{p'q'\tilde{r}}^{\bar{u}~\bar{v}\bar{w}} \cdots . 그렇다면 $\binom{m}{n}$ tensor 의 물리적 의미는 무엇일까? 단순히 vector $m$개와 one-form $n$개가 결합한 것이라고 보면 된다. 무언가 주변으로 가려고 하는 것들을 나타내는, 기술하는 것 $m$개와 좌표가 바뀌면서 scalar 가 어떻게 변할지를 기술하는 것 $n$개가 결합하여 하나로 표현했다는 뜻이다. 가장 간단하게 T^{AB} = V^{A} V^{B} , \quad T^{A}_{B} = V^{A} W_{B} , \quad T^{AB}_{C} = X^{A} V^{B} W_{C} 처럼 vector $m$개와 one-form $n$개의 direct product 라고 이해하고 있으면 된다. 의미도 비슷하게 가지니까. ##[.hiden] Mathematical Tensors ### Zero tensor Zero tensor 란 그냥 간단하게 0이라고 생각하면 된다. 한 좌표계에서 모든 component 가 0인 $\binom{n}{m}$ tensor 는 \begin{align*} 0^{ABC\cdots}_{EFG\cdots} &= 0^{ijk\cdots}_{pqr\cdots} e_{i~j~k}^{ABC} e_{EFG}^{p~q~r} \cdots = 0 \\ &= 0^{i'j'k'\cdots}_{p'q'r'\cdots} e_{i'j'k'}^{ABC} e_{EFG}^{p'q'r'} \cdots = 0 \end{align*} 와 같이 다른 어떠한 좌표계에서도 모든 component 가 0이다. ### Kroneker-delta tensor 기준이 되는 coordinate 에서 다음과 같이 정의된 $\binom{1}{1}$ tensor 를 생각해보자. \delta_{A}^{B} \equiv \delta_{\bar{i}}^{\bar{j}} e^{\bar{i}}_A e_{\bar{j}}^B = e^{\bar{i}}_A e_{\bar{i}}^B where \delta_{\bar{i}}^{\bar{j}} = \begin{cases} 1 & \textrm{if } \bar{i}=\bar{j} , \\ 0 & \textrm{if } \bar{i}\neq\bar{j} . \\ \end{cases} 다른 임의의 coordinate 에서의 component 값들은 어떻게 표현될까? \delta_{A}^{B} = e^{\bar{i}}_A e_{\bar{i}}^B = \Lambda^{\bar{i}}_{k} e^{k}_A \Lambda_{\bar{i}}^{l} e_{l}^B = \delta_{k}^{l} e^{k}_A e_{l}^B = e^{k}_A e_{k}^B . component 값들이 coordinate 에 상관없이 항상 Kroneker-delta function 으로 표현된다. 또한 \delta_{A}^{B} = e^{\bar{i}}_A e_{\bar{i}}^B = \Lambda^{\bar{i}}_j e^{j}_A e_{\bar{i}}^B . 따라서 $\delta^{\bar{i}}_j \equiv \Lambda^{\bar{i}}_j$로 정의해서 쓸수 있겠지만 Kroneker-delta function 이랑 헷갈릴 수 있으므로 되도록 $\Lambda^{\bar{i}}_j$를 쓰도록 하자.} 이러한 신기한 특성을 갖는 mathematical tensor 를 바로 Kroneker-delta $\binom{1}{1}$ tensor 라고 한다. 추가적인 간단한 특징들은 다음과 같다. \delta_{A}^{B} V^{A} = V^{B} , \qquad \delta_{A}^{B} W_{B} = W_{A} , \qquad \delta_{A}^{B} V^{A} W_{B} = V^{A} W_{A} , \delta_{A}^{B} \delta_{B}^{C} = \delta_{A}^{C} , and so on. ### Levi-Civita tensor 기준이 되는 coordinate에서 다음과 같이 정의된 $\binom{0}{d}$ tensor를 생각해보자. 기준 coordinate는 보통 Cartesian coordinate로 잡는다. (편의를 위해 $d=3$라고 가정하고 전개. 임의의 $d$으로의 확장은 명확하니까 생략.) \epsilon_{ABC} = \epsilon_{\bar{i}\bar{j}\bar{k}} e^{\bar{i}}_A e^{\bar{j}}_B e^{\bar{k}}_C where \epsilon_{\bar{i}\bar{j}\bar{k}} = \begin{cases} 1 & \textrm{if } (\bar{i}\bar{j}\bar{k}) = (123) , \\ (-1)^{\kappa} & \textrm{if } (\bar{i}\bar{j}\bar{k}) \textrm{ is }\kappa\textrm{-th permutation from }(123), \\ 0 & \textrm{otherwise (e.g. any pair of indices are the same.).}\\ \end{cases} Levi-Civita symbol $\epsilon_{ijk}$ 값을 정의할때 나오는 permutation(치환)이란 것은 순서대로 되어있는 (123) 중에 두개를 택해서 서로 자리를 바꿨다는 뜻이다. 치환을 한번 할때마다 부호가 바뀌도록, fully anti-symmetric하도록 정의한 함수이다. 따라서 두 자리에 있는 값이 같으면 0이 될수밖에 없다. 예들을 들어보면, \epsilon_{12} = 1 , \quad \epsilon_{21} = -1 , \quad \epsilon_{11} = 0 . \epsilon_{txyz} = 1 , \quad \epsilon_{xtyz} = -1 , \quad \epsilon_{yxtz} = -1 , \quad \epsilon_{zxyt} = -1 , \quad \epsilon_{ttxy} = 0 . 위에 보이듯 꼭 숫자값을 넣을 필요는 없다. 기준을 정하고 기준에서 몇 번의 permutation 을 거쳐야 $\epsilon$ 아래쪽 순서가 나오는지를 따져서 값을 정의한다. 기준 coordinate 에서 이렇게 정의된 Levi-Civita tensor 가 다른 임의의 coordinate 에서 어떤 component 값들을 가질까? \epsilon_{ABC} = \epsilon_{\bar{i}\bar{j}\bar{k}} e^{\bar{i}}_A e^{\bar{j}}_B e^{\bar{k}}_C = \epsilon_{\bar{i}\bar{j}\bar{k}} \Lambda^{\bar{i}\bar{j}\bar{k}}_{lmn} e^{l}_A e^{m}_B e^{n}_C 여기서 \epsilon_{\bar{i}\bar{j}\bar{k}} \Lambda^{\bar{i}\bar{j}\bar{k}}_{lmn} = \begin{cases} \det(\Lambda^{\bar{i}}_l) & \textrm{if } (lmn) = (123) , \\ (-1)^{\kappa} \det(\Lambda^{\bar{i}}_l) & \textrm{if } (lmn) \textrm{ is }\kappa\textrm{-th permutation from } (123) , \\ 0 & \textrm{otherwise (e.g. any pair of indices are the same.).}\\ \end{cases} 이므로 \epsilon_{ABC\cdots} = \det(\Lambda_i^{\bar{j}}) \epsilon_{lmn\cdots} e^{l}_A e^{m}_B e^{n}_C \cdots .
// 이 부분이 이해가 안가는 분들은 제가 정리해놓은 '선형대수학' 글을 보고 오시길. Determinant 가 어떻게 정의되고, 왜 그렇게 정의되고, 역행렬이 어떻게 나오고 등이 정리되어 있음. Matrix 에서 determinant 의 정의와 특징을 이용하면 바로 나오는 결과.
즉 Levi-Civita $\binom{0}{d}$ tensor 의 component 값들은 기준 coordinate 로부터의 one-form component 변환에 해당하는 $\Lambda_{j}^{\bar{i}}$ (cf. $W_{j} = \Lambda_{j}^{\bar{i}} W_{\bar{i}}$)의 determinant 가 곱해진 형태를 가진다. Kroneker-delta 보다는 약간 지저분한 결과이지만 이것도 신기한 특성을 갖는 tensor 임에는 분명하다. 당연한 특징으로 \epsilon_{ABC\cdots} = - \epsilon_{BAC\cdots} = + \epsilon_{CAB\cdots} = \cdots . 어떠한 index permutation 에 대해서도 anti-symmetric하다.
Chicago convention 에 의하면 이 tensor 의 component 를 \epsilon_{lmn} \equiv \epsilon_{\bar{i}\bar{j}\bar{k}} \Lambda^{\bar{i}\bar{j}\bar{k}}_{lmn} = \begin{cases} \det(\Lambda^{\bar{i}}_l) & \textrm{if } (lmn) = (123) , \\ (-1)^{\kappa} \det(\Lambda^{\bar{i}}_l) & \textrm{if } (lmn) \textrm{ is }\kappa\textrm{-th permutation from } (123) , \\ 0 & \textrm{otherwise (e.g. any pair of indices are the same.).} \end{cases} 로 정의해서 써야 깔끔하겠지만, Levi-Civita tensor 는 이렇게 정의해놓고 쓰면 더 헷갈리므로 이 경우만 특별하게 Chicago convention 을 따르지 않고 표현한다. 이러한 이유 때문에 Levi-Civita tensor 를 pseudo tensor (가짜 tensor) 라고 하기도 한다. 하지만 'tensor라고 우기면 tensor다' 라고 개인적으로 생각하고 있기에... 판단은 알아서.
Levi-Civita $\binom{d}{0}$ tensor는 다음과 같이 정해짐을 쉽게 알 수 있다. \begin{align*} \epsilon^{ABC} &= \epsilon^{\bar{i}\bar{j}\bar{k}} e_{\bar{i}}^A e_{\bar{j}}^B e_{\bar{k}}^C = \epsilon^{\bar{i}\bar{j}\bar{k}} \Lambda_{\bar{i}\bar{j}\bar{k}}^{lmn} e_{l}^A e_{m}^B e_{n}^C \\ &= \det(\Lambda^{i}_{\bar{j}}) \epsilon^{lmn} e_{l}^A e_{m}^B e_{n}^C \end{align*} 딱 보니 Levi-Civita $\binom{d}{0}$ tensor 와 Levi-Civita $\binom{0}{d}$ tensor 를 결합하면 무언가 나올거 같기도 하다. \begin{align*} &\epsilon_{ABC\cdots} \epsilon^{EFG\cdots} = \det \big( \Lambda_{s}^{\bar{t}} \big) \epsilon_{ijk\cdots} \det \big( \Lambda_{\bar{u}}^{v} \big) \epsilon^{pqr\cdots} e_{ijk\cdots}^{ABC\cdots} e^{pqr\cdots}_{EFG\cdots} \\ &= \det \big( \Lambda_{s}^{\bar{t}} \Lambda_{\bar{t}}^{v} \big) \epsilon_{ijk\cdots} \epsilon^{pqr\cdots} e_{ijk\cdots}^{ABC\cdots} e^{pqr\cdots}_{EFG\cdots} \\ &= \det \big( \delta_{s}^{v} \big) \epsilon_{ijk\cdots} \epsilon^{pqr\cdots} e_{ijk\cdots}^{ABC\cdots} e^{pqr\cdots}_{EFG\cdots} \\ &= \epsilon_{ijk\cdots} \epsilon^{pqr\cdots} e_{ijk\cdots}^{ABC\cdots} e^{pqr\cdots}_{EFG\cdots} \end{align*} Determinant 가 결합되면서 $\delta_{i}^{j}$의 determinant 인 1이 되었다. $\epsilon_{ijk\cdots} \epsilon^{pqr\cdots}$는 어떻게 표현될 수 있을까? 위의 index set $\{ijk\cdots\}$든 아래쪽의 $\{pqr\cdots\}$이든 set 안에 같은 값이 하나라도 있으면 0이 나온다. 따라서 위 아래 set 가 하나하나 순서 상관없이 어떻게든 대응이 될 때에만 살아남고 이렇게 다 대응이 되더라도 set 안에 같은 index 가 있으면 0이 나오도록 만들어야 한다. 위 아래를 대응시키는 것은 Kroneker delta $\delta_{i}^{j}$로 표현될 수 있으니 이를 이용해 표현할수는 없을지 알아보자. 가장 간단하게 2차원일때에는 \begin{align*} \epsilon_{ij} \epsilon^{pq} &= \delta_{i}^{p} \delta_{j}^{q} - \delta_{i}^{q} \delta_{j}^{p} = \delta_{ij}^{pq} - \delta_{ij}^{qp} \\ &\equiv \sum_{l,m=\{p,q\}} \epsilon^{(pq)}_{~lm} \delta_{ij}^{lm} \\ &\equiv \epsilon^{pq}_{ij} \end{align*} where we define \delta_{ij}^{pq} \equiv \delta_{i}^{p} \delta_{j}^{q} and \epsilon^{(pq)}_{~lm} = \begin{cases} 1 & \textrm{if } lm = (pq) , \\ (-1)^{\kappa} & \textrm{if }lm\textrm{ is }\kappa\textrm{-th permutation from }(pq) , \\ 0 & \textrm{otherwise (e.g. any pair of lower indices are the same.).} \end{cases} 즉 $\epsilon^{(pq)}_{~lm}$는 괄호 () 안의 것을 기준으로 fully anti-symmetric 하게 정의된 function 이다. 3차원일 때에는 \begin{align*} \epsilon_{ijk} \epsilon^{pqr} &= \delta_{i}^{p} \big( \delta_{j}^{q} \delta_{k}^{r} - \delta_{j}^{r} \delta_{k}^{q} \big) - \delta_{i}^{q} \big( \delta_{j}^{p} \delta_{k}^{r} - \delta_{j}^{r} \delta_{k}^{p} \big) + \delta_{i}^{r} \big( \delta_{j}^{p} \delta_{k}^{q} - \delta_{j}^{q} \delta_{k}^{p} \big) \\ &= \delta_{ijk}^{pqr} - \delta_{ijk}^{prq} - \delta_{ijk}^{qpr} + \delta_{ijk}^{qrp} + \delta_{ijk}^{rpq} - \delta_{ijk}^{rqp} \\ &\equiv \sum_{l,m,n=\{p,q,r\}} \epsilon^{(pqr)}_{~lmn} \delta_{ijk}^{lmn} \\ &= \epsilon^{pqr}_{~ijk} \\ &= \big( \delta^{p}_{l} \epsilon^{qr}_{mn} - \delta^{q}_{l} \epsilon^{pr}_{mn} + \delta^{r}_{l} \epsilon^{pq}_{mn} \big) \delta_{ijk}^{lmn} \\ &= \delta^{p}_{i} \epsilon^{qr}_{mn} \delta_{jk}^{mn} - \delta^{q}_{i} \epsilon^{pr}_{mn} \delta_{jk}^{mn} + \delta^{r}_{i} \epsilon^{pq}_{mn} \delta_{jk}^{mn} \end{align*} 와 같이 나타난다. 따라서 일반적인 n차원으로 확장은 \begin{align*} \epsilon_{ijk\cdots} \epsilon^{pqr\cdots} &= \delta_{ijk\cdots}^{pqr\cdots} - \delta_{ijk\cdots}^{qpr\cdots} + \cdots \\ &\equiv \sum_{l,m,n,\cdots=\{p,q,r,\cdots\}} \epsilon^{(pqr\cdots)}_{~lmn\cdots} \delta_{ijk\cdots}^{lmn\cdots} \\ &\equiv \sum_{l,m,n,\cdots=\{i,j,k,\cdots\}} \epsilon^{~lmn\cdots}_{(ijk\cdots)} \delta_{lmn\cdots}^{pqr\cdots} \\ &= \epsilon^{(pqr\cdots)}_{~ijk\cdots} = \epsilon^{~pqr\cdots}_{(ijk\cdots)} = \epsilon^{pqr\cdots}_{ijk\cdots} \end{align*} 와 같음을 알 수 있다. 가끔 유용하게 쓰이는 관계식이다. 또 하나 유용한 관계식은 contraction 이 하나 포함된 \epsilon_{ABC\cdots} \epsilon^{AFG\cdots} = \epsilon_{ijk\cdots} \epsilon^{iqr\cdots} e_{BC\cdots}^{jk\cdots} e_{qr\cdots}^{FG\cdots} 에서 나오는 $\epsilon_{ijk\cdots} \epsilon^{iqr\cdots}$ 값이다. \begin{align*} \epsilon_{ijk\cdots} \epsilon^{iqr\cdots} = \epsilon^{(iqr\cdots)}_{~ijk\cdots} . \end{align*} As only one of the $i$ summation survives, \epsilon_{ijk\cdots} \epsilon^{iqr\cdots} = \epsilon^{(qr\cdots)}_{~jk\cdots} . Contraction 이 2개인 것으로 더 나아가면 \epsilon_{ABC\cdots} \epsilon^{ABG\cdots} = \epsilon_{ijk\cdots} \epsilon^{ijr\cdots} e_{C\cdots}^{k\cdots} e_{r\cdots}^{G\cdots} , \epsilon_{ijk\cdots} \epsilon^{ijr\cdots} = \epsilon^{(ijr\cdots)}_{~ijk\cdots} . In this case, only $2!$ of the $i,j$ summation survive. \epsilon_{ijk\cdots} \epsilon^{ijr\cdots} = 2! \cdot \epsilon^{(r\cdots)}_{~k\cdots} . 일반적인 n개의 contraction 이 일어날 때 나오는 summation over n indices gives \epsilon_{ijkl\cdots pq \cdots} \epsilon^{ijkl\cdots rs \cdots} = n! \cdot \epsilon^{(rs\cdots)}_{~pq\cdots} . Then defining \epsilon^{ABC\cdots}_{EFG\cdots} \equiv \epsilon^{ABC\cdots} \epsilon_{EFG\cdots} , we can anti-symmetrize any $\binom{0}{n}$, or $\binom{m}{0}$ tensors by T_{[AB]} = \frac{1}{(d-2)!} \epsilon_{ABCD\cdots}^{EFCD\cdots} \frac{1}{2!} T_{EF} , T_{[ABC]} = \frac{1}{(d-3)!} \epsilon_{ABCD\cdots}^{EFGD\cdots} \frac{1}{3!} T_{EFG} , T^{[AB]} = \frac{1}{(d-2)!} \epsilon^{ABCD\cdots}_{EFCD\cdots} \frac{1}{2!} T^{EF} , and so on. In general, T_{[A_1 \cdots A_n ]} = \frac{1}{(d-n)! n!} \epsilon_{A_1 \cdots A_n C_1 \cdots C_{d-n}} ^{B_1 \cdots B_n C_1 \cdots C_{d-n}} T_{B_1 \cdots B_n} and T^{[A_1 \cdots A_n ]} = \frac{1}{(d-n)! n!} \epsilon^{A_1 \cdots A_n C_1 \cdots C_{d-n}} _{B_1 \cdots B_n C_1 \cdots C_{d-n}} T^{B_1 \cdots B_n} . 결론적으로 깔끔한 Levi-Civita $\binom{d}{d}$ tensor인 \epsilon^{ABC\cdots}_{EFG\cdots} = \epsilon^{ijk\cdots}_{pqr\cdots} e^{ABC\cdots}_{i~j~k\cdots} e_{EFG\cdots}^{p~q~r\cdots} 가 정의된다. 이렇게 정의하니 기준 coordinate에서 임의의 coordinate로 transform이 되어도 지저분한 determinant 같은게 안들어 온다. 또한 d차원에서도 차수가 n만큼 떨어진 Levi-Civita $\binom{d-n}{d-n}$ tensor를 \begin{align*} &\epsilon^{A_1 \cdots A_{d-n}} _{B_1 \cdots B_{d-n}} \equiv \delta^{A_1 A_2 \cdots A_{d-n}} _{B_1 B_2 \cdots B_{d-n}} - \delta^{A_2 A_1 \cdots A_{d-n}} _{B_1 B_2 \cdots B_{d-n}} + \cdots \\ &= \frac{1}{n!} \epsilon^{A_1 \cdots A_{d-n} C_1 \cdots C_n} _{B_1 \cdots B_{d-n} C_1 \cdots C_n} = \epsilon^{i \cdots j}_{k \cdots l} e^{A_1 \cdots A_{d-n}}_{~i~\cdots~j} e_{B_1 \cdots B_{d-n}}^{~k~\cdots~l} \end{align*} 와 같이 적절히 정의할 수 있다. d차원에서 Levi-Civita $\binom{n}{n}$ tensor 의 contraction 은 \begin{align*} \epsilon_{ijk\cdots} ^{iqr\cdots} &= \delta_{ijk\cdots}^{iqr\cdots} - \delta_{ijk\cdots}^{qir\cdots} + \cdots \\ &= d \epsilon_{jk\cdots}^{qr\cdots} - (n-1) \epsilon_{jk\cdots}^{qr\cdots} \\ &= (d-n+1) \epsilon_{jk\cdots}^{qr\cdots} \end{align*} 와 같다. Fully anti-symmetric 한 이 Levi-Civita tensor 는 matrix 의 determinant 를 구할때에도 사용되고 volume 을 구할때에도 등장한다. Determinant 관련은 '선형대수학' 글 을 참고하도록 하고 volume 을 구할때 어떻게 쓰이는지 알아보자. #### Scalar volume 기준이 되는 Cartesian coordinate 에서 volume 은? 구하고자 하는 region (구역) $R$ 안의 점들에 대해 위와같이 적분하면 나온다. V = \int_{R} dx dy dz Volume (부피) 라는 것이 무슨 의미인지는 직관적으로 알고들 있을테니 설명은 생략하기로 하고, 이 volume이란 것을 임의의 coordinate 에서 어떻게 구할수 있을까? $dx, dy, dz$들은 vector 와 one-form 을 이야기 할 때 많이 등장한 개념이다. 좌표점의 미소변화는 vector 와 관련된 개념이니 위 식을 다음과 같이 쓸 수 있을지 생각해보자. V = \int_{R} \Big( \frac{\partial \vec{r}} {\partial x} dx \Big) \cdot \bigg( \Big( \frac{\partial \vec{r}} {\partial y} dy \Big) \times \Big( \frac{\partial \vec{r}} {\partial z} dz \Big) \bigg) ~~ \textrm{?} V = \int_{R} \epsilon_{ABC} e_x^{A} e_y^{B} e_z^{C} dx dy dz ~~ \textrm{?} V = \int_{R} \epsilon_{ABC} dx^{A} dy^{B} dz^{C} ~~ \textrm{?} where we defined $dx^{A} \equiv e_x^{A} dx$ and so on. 부피를 구할때 자주 썼던 외적, 내적을 이용했다. 지금보니 부피란게 Levi-Civita symbol 과 매우 밀접한 관련이 있는게 보이지 않는가? 뚜둥! 일반적인 coordinate 로 확장해보면 아래과 같이 쓰일 수 있을것 같다. 아무리 뒤죽박죽 엉망진창 찌그러져 있는 coordinate 라도 한 점 근처를 매우 크게 확대해서 보면 평행6면체 (parallelepiped) 가 되므로 V = \int_{R} \Big( \frac{\partial \vec{r}} {\partial u} du \Big) \cdot \bigg( \Big( \frac{\partial \vec{r}} {\partial v} dv \Big) \times \Big( \frac{\partial \vec{r}} {\partial w} dw \Big) \bigg)
절대값이 붙어야 제대로 정의되는데 편의상 뺐다. 항상 전체에 절대값이 붙어있음을 잊지 말자. 안그러면 inversion 같은것에 대해 부피가 -값이 될수도 있고 region 안에서 $u,v,w$를 증가시키면서 적분해야 하는지 감소시키면서 적분해야 하는지 등 헷갈릴수 있는 사항들이 많아진다. V = \int_{R} \epsilon_{ABC} e_u^{A} e_v^{B} e_w^{C} du dv dw V = \int_{R} \epsilon_{ABC} du^{A} dv^{B} dw^{C} where we defined $du^{A} \equiv e_u^{A} du$ and so on. 결론적으로 \begin{align*} V &= \int_{R} \epsilon_{ABC} e_u^{A} e_v^{B} e_w^{C} du dv dw \\ &= \int_{R} \det \Big( \Lambda_{\{u,v,w\}}^{\{x,y,z\}} \Big) \epsilon_{uvw} du dv dw = \int_{R} \det \Big( \Lambda_{i'}^{\bar{j}} \Big) du dv dw \end{align*} 가 된다.
// Be careful that $\Lambda_{\{u,v,w\}}^{\{x,y,z\}}$ does not mean $\Lambda_{uvw}^{xyz}$ which is defined to be $\Lambda_{u}^{x} \Lambda_{v}^{y} \Lambda_{w}^{z}$.
조금 더 나아가서 임의의 $n$차원에서 volume 이란 무엇일까? 어떻게 정의해야 할까? 처음부터 3차원보다 높은 차원으로 가면 헷갈릴테니, 2차원, 1차원에서 volume 이란게 무엇일지를 먼저 고민해보자. 그냥 위와 비슷하게 정의해서 써보면 2차원에서는 면적, 넓이라고 불리는 S = \int_{R} dx dy 가 되겠고, 1차원에서는 길이라고 불리는 L = \int_{R} dx 가 될 것이다. 그냥 이름만 다르게 지었을뿐, 의미랑 개념상 상당히 비슷한 애들이다. 그렇다면 이것들도 비슷한 공식을 만족할까? 당연하다. 1차원은 매우 쉽게 증명된다. L = \int_{R} dx = \int_{R} \frac{dx}{du} du = \int_{R} \Lambda^{x}_{u} du 1 by 1 matrix 에서 determinant 는 그냥 element 값이므로 당연히 \begin{align*} L &= \int_{R} \epsilon_A dx^{A} = \int_{R} \epsilon_x dx = \int_{R} dx \\ &= \int_{R} \epsilon_A du^{A} = \int_{R} \det \big( \Lambda_{u}^{x} \big) \epsilon_u du = \int_{R} \Lambda_{u}^{x} du = \int_{R} dx \end{align*} 가 성립한다. inversion 이 되었을 경우 sign 은 다를 수 있다. 2차원에서도 마찬가지로 \begin{align*} L &= \int_{R} \epsilon_{AB} dx^{A} dy^{B} = \int_{R} \epsilon_{xy} dx dy = \int_{R} dx dy \\ &= \int_{R} \epsilon_{AB} du^{A} dv^{B} = \int_{R} \det \big( \Lambda_{\{u,v\}}^{\{x,y\}} \big) \epsilon_{uv} du dv \end{align*} 가 성립한다. 따라서 임의의 n차원에서 volume 은 n-dimensional Cartesian coordinate 기준으로 잡힌 \begin{align*} &V = [L^{n}] = \int_{R} dx^{1} dx^{2} dx^{3} \cdots \\ &= \int_{R} \epsilon_{ABC\cdots} d \vec{x}^{ABC\cdots} \\ &\equiv \int_{R} \epsilon_{ABC\cdots} \frac{\partial \vec{r}}{\partial x^{1}}^{A} dx^{1} \frac{\partial \vec{r}}{\partial x^{2}}^{B} dx^{2} \frac{\partial \vec{r}}{\partial x^{3}}^{B} dx^{3} \cdots \\ &= \int_{R} \epsilon_{ABC\cdots} d \vec{u}^{ABC\cdots} \\ &\equiv \int_{R} \epsilon_{ABC\cdots} \frac{\partial \vec{r}}{\partial u^{1}}^{A} du^{1} \frac{\partial \vec{r}}{\partial u^{2}}^{B} du^{2} \frac{\partial \vec{r}}{\partial u^{3}}^{B} du^{3} \cdots \\ &= \int_{R} \det \big( \Lambda_{u\textrm{'s}}^{x\textrm{'s}} \big) du^{1} du^{2} du^{3} \cdots \end{align*} 로 정의될 것이다. (절대값 기호는 편의상 뺐다.) ### Symmetric tensor Fully anti-symmetric 한 Levi-Civita tensor 를 알아봤으니, 이번에는 fully symmetric 한 tensor 에 대해서 알아보자. \epsilon^{ABC\cdots+}_{EFG\cdots} = \epsilon^{\bar{i}\bar{j}\bar{k}\cdots+} _{\bar{p}\bar{q}\bar{r}\cdots} e^{ABC\cdots}_{\bar{i}~\bar{j}~\bar{k}\cdots} e_{EFG\cdots}^{\bar{p}~\bar{q}~\bar{r}\cdots} 을 어떻게 정의하면 coordinate 에 상관없이 같은 형태의 component 값을 가지게 할 수 있을지 고민해보자. Levi-Civita tensor 에서 힌트를 얻어 \begin{align*} \epsilon^{ijk\cdots+}_{pqr\cdots} &\equiv \delta^{ijk\cdots}_{pqr\cdots} + \delta^{jik\cdots}_{pqr\cdots} + \cdots \\ &\equiv \sum_{l,m,n,\cdots=\{p,q,r,\cdots\}} \epsilon_{(pqr\cdots)}^{~lmn\cdots+} \delta^{ijk\cdots}_{lmn\cdots} \\ &= \delta^{ijk\cdots}_{pqr\cdots} + \delta^{ijk\cdots}_{qpr\cdots} + \cdots \\ &\equiv \sum_{l,m,n,\cdots=\{i,j,k,\cdots\}} \epsilon_{~lmn\cdots}^{(ijk\cdots)+} \delta^{lmn\cdots}_{pqr\cdots} \end{align*} 와 같이 정의해보자. 한쪽 index 들은 고정시키고 다른쪽 index 들을 permutation 시키면서 모두 symmetric 하게 $\delta_{pqr\cdots}^{ijk\cdots}$들을 더한 꼴이다. 여기서 \epsilon_{~lmn\cdots}^{(ijk\cdots)+} = \epsilon^{~lmn\cdots}_{(ijk\cdots)+} = \begin{cases} 1 & \textrm{if } lmn\cdots = (ijk\cdots) , \\ (+1)^{\kappa} & \textrm{if } lmn\cdots \textrm{ is }\kappa\textrm{-th permutation from } (ijk\cdots) , \\ 0 & \textrm{otherwise.} \end{cases} $\epsilon^{ijk\cdots+}_{pqr\cdots}$ 값이 어떻게 나오는지 예를 몇개만 확인해보자. 4차원에서 index 들이 위아래 2개씩만 있는 \epsilon^{ij}_{pq} = \delta^{ij}_{pq} + \delta^{ij}_{qp} 의 값들은 \begin{align*} &\epsilon^{12}_{12} = \delta^{12}_{12} + \delta^{12}_{21} = 1 , \quad \epsilon^{11}_{11} = \delta^{11}_{11} + \delta^{11}_{11} = 2! , \\ &\epsilon^{13}_{31} = \delta^{13}_{31} + \delta^{13}_{13} = 1 , \quad \epsilon^{12}_{14} = \delta^{12}_{14} + \delta^{12}_{41} = 0 , \quad \textrm{ and so on.} \end{align*} 6차원에서 index들이 위아래 3개씩만 있는 \begin{align*} \epsilon^{ijk}_{pqr} &= \delta^{ijk}_{pqr} + \delta^{ijk}_{prq} + \delta^{ijk}_{qpr} + \delta^{ijk}_{qrp} + \delta^{ijk}_{rpq} + \delta^{ijk}_{rqp} \\ &= \delta^{i}_{p} \big( \delta^{jk}_{qr} + \delta^{jk}_{rq} \big) + \delta^{i}_{q} \big( \delta^{jk}_{pr} + \delta^{jk}_{rp} \big) + \delta^{i}_{r} \big( \delta^{jk}_{pq} + \delta^{jk}_{qp} \big) \end{align*} 의 값들은 \begin{align*} &\epsilon^{126}_{126} = \delta^{126}_{126} + \delta^{126}_{162} + \cdots = 1 , \quad \epsilon^{155}_{515} = \delta^{155}_{515} + \delta^{155}_{551} + \cdots = 2! , \\ &\epsilon^{222}_{222} = \delta^{222}_{222} + \delta^{222}_{222} + \cdots = 3! , \quad \epsilon^{123}_{345} = \delta^{123}_{345} + \delta^{123}_{354} + \cdots = 0 , \quad \textrm{ and so on.} \end{align*} $+1, -1, 0$만을 값으로 가졌던 Levi-Civita tensor 와는 다르게 $1$보다 큰 값도 가질수 있는걸 알 수 있다. 이 때의 component transformation 은? \begin{align*} &\epsilon^{\bar{i}\bar{j}\bar{k}\cdots+} _{\bar{p}\bar{q}\bar{r}\cdots} \Lambda_{\bar{i}\bar{j}\bar{k}\cdots} ^{abc\cdots} \Lambda^{\bar{p}\bar{q}\bar{r}\cdots} _{efg\cdots} = \Big[ \delta^{\bar{i}\bar{j}\bar{k}\cdots} _{\bar{p}\bar{q}\bar{r}\cdots} + \delta^{\bar{j}\bar{i}\bar{k}\cdots} _{\bar{p}\bar{q}\bar{r}\cdots} + \cdots \Big] \Lambda_{\bar{i}\bar{j}\bar{k}\cdots} ^{abc\cdots} \Lambda^{\bar{p}\bar{q}\bar{r}\cdots} _{efg\cdots} \\ &= \delta^{abc\cdots}_{efg\cdots} + \delta^{bac\cdots}_{efg\cdots} + \cdots = \epsilon^{abc\cdots+} _{efg\cdots} \end{align*} 와 같이 coordinate에 관계없이 component가 똑같은 형태를 띔을 알 수 있다. \begin{align*} &\epsilon^{ABC\cdots+}_{EFG\cdots} \equiv \delta^{ABC\cdots+}_{EFG\cdots} + \delta^{BAC\cdots+}_{EFG\cdots} + \cdots \\ &= \epsilon^{\bar{i}\bar{j}\bar{k}\cdots+} _{\bar{p}\bar{q}\bar{r}\cdots} e^{ABC\cdots}_{\bar{i}~\bar{j}~\bar{k}\cdots} e_{EFG\cdots}^{\bar{p}~\bar{q}~\bar{r}\cdots} = \epsilon^{ijk\cdots+} _{pqr\cdots} e^{ABC\cdots}_{i~j~k\cdots} e_{EFG\cdots}^{p~q~r\cdots} \end{align*} 과 같은 fully symmetric $\binom{n}{n}$ tensor 가 정의된다. 여기서 n은 차원수 d보다 클수도 작을수도 있다. cf. Levi-Civita 의 경우는 anti-symmetric 한 성질 때문에 차원수 d보다 큰 Levi-Civita $\binom{n}{n}$ tensor는 0으로 죽게된다. Levi-Civita tensor 과 비슷하게 신기한 결과가 나올지 symmetric tensor 에도 contraction 을 취해보자. d차원에서 symmetric $\binom{n}{n}$ tensor 의 contraction 은 \begin{align*} \epsilon^{ijk\cdots+}_{iqr\cdots} &\equiv \delta^{ijk\cdots}_{iqr\cdots} + \delta^{jik\cdots}_{iqr\cdots} + \cdots \\ &= d \epsilon^{jk\cdots}_{qr\cdots} + (n-1) \epsilon^{jk\cdots}_{qr\cdots} \\ &= (d+n-1) \epsilon^{jk\cdots}_{qr\cdots} \end{align*} 가 됨을 알 수 있다. ##[.hiden] Tensor Algebra 간단하게 tensor algebra 에 대해 알아보자.
  1. Equality: Tensor $S^{A}_{B}$와 $T^{A}_{B}$가 같다는 것은 같은 좌표계에서 두 component 를 비교했을 때, 모든 component 들이 일치한다는 것을 의미한다. \begin{align*} e_{A}^{i} e^{B}_{j} \Big[ S^{A}_{B} = T^{A}_{B} \Big] ~ \rightarrow ~ S^{i}_{j} = T^{i}_{j} \end{align*} 이렇게 하나의 좌표계에서 두 tensor 의 모든 component 들이 일치하면, 다른 좌표계에서도 두 tensor 의 모든 component 들이 일치한다는 것을 알 수 있다. S^{k'}_{l'} = \Lambda^{k'j}_{i~l'} S^{i}_{j} = \Lambda^{k'j}_{i~l'} T^{i}_{j} = T^{k'}_{l'} 임의의 $\binom{m}{n}$ tensor 로의 확장은 자명. 같은 rank 의 tensor 끼리만 같음 (equality) 을 이야기 할 수 있음에 주의하자.
  2. Linear Combinations: T^{A}_{B} = a P^{A}_{B} + b Q^{A}_{B} 위와 같은 덧셈, 뺄셈, scalar 곱셈을 이용하는 식을 정의할 수 있을텐데 이는 e_{A}^{i} e^{B}_{j} \Big[ T^{A}_{B} = a P^{A}_{B} + b Q^{A}_{B} \Big] ~ \rightarrow ~ T^{i}_{j} = a P^{i}_{j} + b Q^{i}_{j} 처럼 각 (each and every) component 끼리의 덧셈, 뺄셈, scalar 곱셈으로 이해하면 된다. 하나의 좌표계에서만 연산이 제대로 이루어지면, 다른 좌표계에서도 equality (등식) 를 만족하는 것을 알 수 있다. 이것 또한 임의의 $\binom{m}{n}$ tensor 로의 확장은 자명. 덧셈, 뺄셈도 같은 rank 의 tensor 끼리만 연산이 가능함에 주의하자.
  3. Direct Products: 임의의 $\binom{m}{n}$ tensor로 확장시킬 때에도 이용했듯이 T^{A}_{B} = a P^{A} Q_{B} , \quad T^{AB}_{C} = b P^{A}_{C} Q^{B} = R^{A} S_{C} Q^{B} 와 같이 $\binom{a}{b}$ tensor 와 $\binom{c}{d}$ tensor 의 direct product 로 $\binom{a+c}{b+d}$ tensor 를 만들 수 있다. 이것도 each and every component 끼리의 곱셈으로 이해하면 된다. e_{A}^{i} e^{B}_{j} \Big[ T^{A}_{B} = a P^{A} Q_{B} \Big] ~ \rightarrow ~ T^{i}_{j} = a P^{i} Q_{j} 이것 또한 하나의 좌표계에서만 연산이 제대로 이루어지면, 다른 좌표계에서도 equality (등식) 를 만족하는 것을 알 수 있다. 임의의 $\binom{m}{n}$ tensor 로의 확장도 자명.
  4. Contraction: Tensor 를 처음 설명하면서 vector 와 one-form 을 scalar 로 만드는 연산이 contraction (축약) 이라고 설명했다. 조금 더 확장시켜서 하나의 tensor 안에서의 contraction 과 multiple contractions 에 대해 알아보자. T^{ABC}_{BEF} = S^{AC}_{EF} e_{AC}^{i~k} e^{EF}_{p~q} \Big[ T^{ABC}_{BEF} = S^{AC}_{EF} \Big] ~ \rightarrow ~ T^{ijk}_{jpq} = S^{ik}_{pq} 와 같은 연산이다. Kroneker-delta tensor 를 이용해 표현하면 \delta_{B}^{D} T^{ABC}_{DEF} = S^{AC}_{EF} 이다. Contraction 도 좌표계에 상관없이 같은 결과를 주는 것을 T^{ij'k}_{j'pq} = \delta^{j'}_{l'} T^{il'k}_{j'pq} = \delta^{j'}_{l'} \Lambda^{l'}_{r} T^{irk}_{j'pq} = \Lambda^{j'}_{r} T^{irk}_{j'pq} = T^{irk}_{rpq} = S^{ik}_{pq} 와 같이 알 수 있다. Multiple contractions 은 T^{AB}_{CD} S^{CD}_{AB} = c 와 같이 여러개의 indices 에 대한 contraction 을 동시에 취하는 것을 말한다. T^{ij}_{kl} S^{kl}_{ij} = c 와 같이 연산이 이루어진다.
  5. Commutability: Tensor algebra 에서는 덧셈, 뺄셈, direct product 모두 commutable 하다. T^{A}_{B} = a P^{A}_{B} + b Q^{A}_{B} = b Q^{A}_{B} + a P^{A}_{B} = Q^{A}_{B} b + P^{A}_{B} a T^{A}_{B} = P^{A} Q_{B} = Q_{B} P^{A} and so on. Index 를 바꾸는 것이 아님에 주의. T^{AB} = P^{A} Q^{B} \neq Q^{A} P^{B} = T^{BA}
##[.hiden] Metric: Inner Product of Vectors (and One-forms) 다시 제일 처음 직관적으로 Cartesian coordinate 를 잡았던 때로 돌아가보자. 직관적으로 공간 3차원(+시간 1차원)이란 것은 가정하고 시작했다. 하지만 이런 공간 3차원의 $x$방향, $y$방향, $z$방향의 같은 거리는 어떻게 표현해야 할까? 이것도 약간 직관에 의존해서 정해야 하는 양이긴 하다. 바로 위에서 volume 을 구할때에도 따로 언급하지는 않았지만 Cartesian coordinate 에서 $dx,dy,dz$가 같을때 같은 거리를 나타내도록 잘 잡았다는 가정이 들어있었다. 아무튼 이러한 거리 개념을 scalar 로 표현하기 위함이기도 하고 여러가지로 내적이란 것을 정의하면 쓸모가 많아 보인다. 우선 vector 의 내적을 어떻게 정의해야 할지 생각해보자. 우선 vector 두개가 scalar 값을 주어야 하므로 $\binom{0}{2}$ tensor $g_{AB}$를 도입할 필요가 있어보인다. 이름은 선대 수학자, 물리학자들이 metric ('미터 단위의'라는 뜻) 이라고 붙였다. V^{A} = \frac{d \vec{x}}{d \lambda}^{A}, \qquad g_{AB} V^{A} V^{B} = ~ \textrm{?} , \quad g_{AB} V^{A} W^{B} = ~ \textrm{?} 우리가 익숙한 3차원 vector 의 내적으로부터 힌트를 얻어서 내적을 정의해 보자면, \frac{d \vec{x}}{d \lambda}^{A} \cdot \frac{d \vec{x}}{d \lambda}^{B} = \bigg( \frac{d x}{d \lambda} \bigg)^2 + \bigg( \frac{d y}{d \lambda} \bigg)^2 + \bigg( \frac{d z}{d \lambda} \bigg)^2 g_{AB} = \delta_{\bar{i}\bar{j}} e^{\bar{i}}_{A} e^{\bar{j}}_{B} \begin{align*} &g_{AB} V^{A} V^{B} = g_{\bar{i}\bar{j}} V^{\bar{i}} V^{\bar{j}} = \delta_{\bar{i}\bar{j}} V^{\bar{i}} V^{\bar{j}} = \sum_{\bar{i}} V^{\bar{i}} V^{\bar{i}} \\ &= \delta_{\bar{i}\bar{j}} \Lambda^{\bar{i}\bar{j}}_{kl} V^{k} V^{l} = \sum_{\bar{i}} \Lambda^{\bar{i}\bar{i}}_{kl} V^{k} V^{l} = g_{kl} V^{k} V^{l} \end{align*} 임을 알 수 있다. 피타고라스 정리로부터 이러한 값들은 rotation 에 대해 invariant 함을 쉽게 보일 수 있을것이다. 직관적으로도 당연한 이야기이다. 또한 contraction 으로 얻어지는 값은 coordinate-independent 한 scalar 이어야 하므로 coordinate 의 scale 을 다르게 잡으면 $g_{AB}$값도 그에 따라 scale 이 변하게 된다. 즉, $\vec{x} = x^{\bar{i}} \vec{e}_{\bar{i}} = x^{i} \vec{e}_{i} = \alpha x^{\bar{i}} \vec{e}_{i}$ 라면, 다시말해서 $x^{i} = \alpha x^{\bar{i}}$, $1 \vec{e}_{\bar{x}} + 3 \vec{e}_{\bar{y}} = \alpha \vec{e}_{x} + 3 \alpha \vec{e}_{y}$ 로 표시된다면, V^{A} = \frac{d x^{\bar{i}}} {d \lambda} e_{\bar{i}}^{A} = \frac{d x^{i}} {d \lambda} e_{i}^{A} = \alpha \frac{d x^{\bar{i}}} {d \lambda} e_{i}^{A} . g_{AB} V^{A} V^{B} = \sum_{\bar{i}} \Big( \frac{d x^{\bar{i}}} {d \lambda} \Big)^2 = g_{ij} V^{i} V^{j} = g_{ij} \alpha \frac{d x^{\bar{i}}} {d \lambda} \alpha \frac{d x^{\bar{j}}} {d \lambda} . 따라서 g_{ij} = \frac{1}{\alpha^2} \delta_{ij} 가 된다. 결론적으로 기준이 되는 coordinate 에서 $g_{\bar{i}\bar{j}}$를 적절히 정하고 다른 coordinate 에서의 $g_{ij}$ 값은 g_{ij} = \Lambda_{i}^{\bar{k}} \Lambda_{j}^{\bar{l}} g_{\bar{k}\bar{l}} \equiv \Lambda_{ij}^{\bar{k}\bar{l}} g_{\bar{k}\bar{l}} 로 구한다고 생각하면 될것이다. (where we define $\Lambda_{ij}^{\bar{k}\bar{l}} \equiv \Lambda_{i}^{\bar{k}} \Lambda_{j}^{\bar{l}}$ for short-handed notation.) ### Symmetricity $g_{AB}$가 같은 vector 에 대한 내적으로부터 정의되어지니 (정의된다기보단 개념이 시작된다고 보는게 맞는 표현일수도) 가장 기본적으로 기준에서의 metric 은 symmetric 하다는 가정하에 전개해 나갈 수 있을 것이다. 즉, g_{\bar{i}\bar{j}} = g_{\bar{j}\bar{i}} 는 내적에 쓰이는 metric의 기본적인 성질이라고 생각할 수 있다. 따라서 g_{AB} = g_{\bar{i}\bar{j}} e^{\bar{i}}_{A} e^{\bar{j}}_{B} = g_{\bar{i}\bar{j}} e^{~\bar{i}~\bar{j}}_{AB} = g_{\bar{j}\bar{i}} e^{~\bar{i}~\bar{j}}_{AB} = g_{BA} where we define $e^{~\bar{i}~\bar{j}}_{AB} \equiv e^{\bar{i}}_{A} e^{\bar{j}}_{B}$ for short-handed notation. 또한 g_{ij} = \Lambda_{ij}^{\bar{k}\bar{l}} g_{\bar{k}\bar{l}} = \Lambda_{ij}^{\bar{k}\bar{l}} g_{\bar{l}\bar{k}} = g_{ji} . 결론적으로 기준이 되는 coordinate 에서 $g_{\bar{i}\bar{j}}$가 symmetric 하다면 general 한 모든 coordinate 에서도 $g_{ij} = g_{ji}$로 symmetric 하다는 것이다. 이해를 돕기위해 spherical coordinate, cylinderical coordinate 에서 metric $g_{AB}$의 coordinate component 들이 어떤값인지 알아보자. 우선 spherical coordinate 에서의 metric 값들의 결과들만 보면 다음과 같다. g_{rr} = 1 , \quad g_{\theta\theta} = r^2 , \quad g_{\phi\phi} = r^2 \sin^2 \theta , \quad \textrm{the others} = 0 . 위에서도 알 수 있드시 metric 은 전 공간에도 정의된 field 개념의 $\binom{0}{2}$ tensor 이다. 따라서 좌표점에 따라 component 값이 달라질 수 있다. Cylinderical coordinate 에서의 metric 값들은 g_{\rho\rho} = 1 , \quad g_{\varphi\varphi} = \rho^2 , \quad g_{zz} = 1 , \quad \textrm{the others} = 0 와 같다. 다른식으로 개념적으로만 표현하자면 \begin{align*} g_{AB} V^{A} V^{B} &= dr^2 + r^2 d\theta^2 + r^2 \sin^2 \theta d\phi^2 \\ &= d\rho^2 + \rho^2 d\varphi^2 + dz^2 , \end{align*} \begin{align*} g_{AB} V^{A} W^{B} &= dr_1 dr_2 + r d\theta_1 d\theta_2 + r^2 \sin^2 \theta d\phi_1 d\phi_2 \\ &= d\rho_1 d\rho_2 + \rho^2 d\varphi_1 d\varphi_2 + dz_1 dz_2 . \end{align*} 위치가 같은 곳에서만 contraction 이 정해지므로 위치값 (좌표점) 을 나타내는 $(r,\theta,\phi)$와 $(\rho,\varphi,z)$는 같고 이곳에서 다른곳으로의 미소변화를 나타내는 vector 값은 다를 수 있다. 이 값들이 g_{ij} = \Lambda_{ij}^{\bar{k}\bar{l}} g_{\bar{k}\bar{l}} = \Lambda_{ij}^{\bar{k}\bar{l}} \delta_{\bar{k}\bar{l}} = \sum_{\bar{k}} \Lambda_{ij}^{\bar{k}\bar{k}} 식으로 구해진 값하고 같은지는 각자 확인해보자. 노가다성이 있는 증명이지만, 의심이 충분히 생길수 있는 부분이므로 확인해 보는것도 나쁘진 않은것 같다. 여기서는 너무 길어질거 같아 증명생략. ### Relation to scalar volume 잠시 volume 을 구할때, Levi-Civita tensor 의 component 변환을 구할때 등장했던 $\det \big( \Lambda_{i}^{\bar{j}} \big)$를 다시 한번 바라보자. Determinant 라는거 표현은 쉽지만 실제 구하기는 만만치 않다. 특히나 off-diagonal term 들이 0이 아닐 경우, matrix dimension 이 증가함에 따라 복잡도는 기하급수적으로 증가한다. 기준이 되는 coordinate 가 무엇인지가 애매할때도 있기도 하고, 여러가지 이유로 이 $\det \big( \Lambda_{i}^{\bar{j}} \big)$를 뭔가 쉽게, 무언가 더 물리적인 의미를 갖도록 구할 방법이 없을지 고민해 볼 필요가 있다. $\det \big( \Lambda_{i}^{\bar{j}} \big)$가 tensor transformation 에 등장하는 놈이므로 symmetry 를 가지는 tensor 가 있을 경우 matrix product 의 determinant 가 각 matrix 의 determinant 곱으로 나타난다는 특성을 이용하여 쉽게 구할 수 있을듯 싶다. When C_{ik} = \sum_{j} A_{ij} B_{jk} , \det(C_{ij}) = \det(A_{kl}) \det(B_{mn}) .
// 이것의 증명 관련해서는 '선형대수학' 글 참고.
이런 symmetric tensor로 metric을 선택해보자. As g_{ij} = \Lambda_{ij}^{\bar{k}\bar{l}} g_{\bar{k}\bar{l}} , \det(g_{ij}) = \det(\Lambda_{m}^{\bar{n}})^2 \det(g_{\bar{k}\bar{l}}) . 따라서 \det(\Lambda_{m}^{\bar{n}}) = \pm \sqrt{ \frac{\det(g_{ij})} {\det(g_{\bar{k}\bar{l}})} } where the sign depends on the sequence of coordinate axis, so to speak, whether it is right-handed coordinate or left-handed coordinate. 기준이 되는 coordinate 에서 metric 은 $\delta_{ij}$ 혹은 $\eta_{ij}$ 등 diagonal 값만 1 or -1, off-diagonal 은 모두 0 값을 갖는 경우가 많으므로 조금 더 간단하게 \Big| \det(\Lambda_{m}^{\bar{n}}) \Big| = \sqrt{ \det(g_{ij})} ~~ \big( \equiv \sqrt{g} \big) 와 같이 표현된다. \begin{align*} \epsilon^{ABC} &= \epsilon^{\bar{i}\bar{j}\bar{k}} e_{\bar{i}}^A e_{\bar{j}}^B e_{\bar{k}}^C = \epsilon^{\bar{i}\bar{j}\bar{k}} \Lambda_{\bar{i}\bar{j}\bar{k}}^{lmn} e_{l}^A e_{m}^B e_{n}^C \\ &= \det(\Lambda^{i}_{\bar{j}}) \epsilon^{lmn} e_{l}^A e_{m}^B e_{n}^C = \pm \sqrt{ \det(g_{ij})} \epsilon^{lmn} e_{l}^A e_{m}^B e_{n}^C \end{align*} and \begin{align*} &V = [L^{n}] = \int_{R} \epsilon_{ABC\cdots} d \vec{u}^{ABC\cdots} \\ &= \int_{R} \det \big( \Lambda_{u\textrm{'s}}^{x\textrm{'s}} \big) du^{1} du^{2} du^{3} \cdots \\ &= \int_{R} \sqrt{ \det(g_{ij}) } du^{1} du^{2} du^{3} \cdots . \end{align*} 이해를 돕기위한 예로 spherical and cylinderical coordinate 에서 volume 을 구하는 법을 보면, \begin{align*} &V = \int_{R} dx dy dz \\ &= \int_{R} \sqrt{ \det (g_{\{r,\theta,\phi\}}) } ~ dr d\theta d\phi = \int_{R} r^2 \sin\theta ~ dr d\theta d\phi \\ &= \int_{R} \sqrt{ \det (g_{\{\rho,\varphi,z\}}) } ~ d\rho d\varphi dz = \int_{R} \rho ~ d\rho d\varphi dz . \end{align*} ### Inner product of one-forms Inner product of one-forms 도 마찬가지로 정의될 수 있을텐데, 이때는 Cartesian coordinate 를 기준으로 잡지 말고 다음과 같은 식을 만족하도록 잡자. g_{AB} g^{CB} = \delta_{A}^{C} . 왜 이렇게 잡을까? $g_{AB}$가 내적에 쓰이지만 이 자체로 $\binom{0}{2}$ tensor이기 때문에 vector 와 contraction 을 하면 one-form 으로 만들어 버린다. Defining conjugate one-form like V_{A} \equiv g_{AB} V^{B} , \quad W_{A} \equiv g_{AB} W^{B} , \quad \textrm{and so on,} Let's define $g^{AB}$ to give the same result g_{AB} V^{A} W^{B} = g^{AB} V_{A} W_{B} for any arbitrary $\{V^{A}, W^{A}\}$ set. Then \begin{align*} &g^{AB} V_{A} V_{B} = g^{AB} g_{AC} V^{C} g_{BD} V^{D} \\ &= g^{ij} g_{ik} V^{k} g_{jl} V^{l} = g_{kl} V^{k} V^{l} . \end{align*} 따라서 \begin{align*} g^{ij} g_{ik} g_{jl} = g_{kl} . \end{align*} Producting inverse matrix of $g_{kl}$ on the both side, \begin{align*} &g^{ij} g_{ik} \sum_l g_{jl} g^{-1}_{lp} = \sum_l g_{kl} g^{-1}_{lp} \\ &g^{ij} g_{ik} \delta_{jp} = \delta_{kp} \\ &g^{ip} g_{ik} = \delta_{kp} \\ &g^{ip} \sum_k g_{ik} g^{-1}_{kq} = \sum_k \delta_{kp} g^{-1}_{kq} \\ &g^{ip} \delta_{iq} = g^{qp} = g^{-1}_{pq} . \end{align*} 즉 처음에 제시되었던 g_{ij} g^{kj} = \sum_j g_{ij} g_{jk}^{-1} = \delta_{ik} = \delta_{i}^{k} 식이 만족하게 나온다. One-form의 내적을 vector 의 내적과 consistant 하도록 잡은 것이다. $g_{ij}$가 symmetric 하다는 충분한 논리가 있으므로, i.e. $g_{ij}=g_{ji}$, 이를 이용해 $g^{kl}$의 특징도 알아보자. $g_{ij}$의 inverse 이기 때문에 선형대수학에서 증명된 inverse matrix (역행렬) 의 특징을 모두 갖는다고 보면 된다. 모든 증명을 여기 써놓기에는 너무 오래 걸리므로 결론만 적어보자면, $\det(g_{ij}) \neq 0$이어야 inverse 가 존재한다는 점. 이 때 left inverse 와 right inverse 가 둘 다 항상 같이 존재하고 그 matrix element 도 같다는 점. $g_{ij}$가 symmetric 하면, i.e. $g_{ij}=g_{ji}$, inverse 도 symmetric 하다는 점. 등이 있겠다. 즉 \det(g_{ij}) \neq 0 , g^{ij} = g^{ji} , \qquad g^{AB} = g^{BA} , \begin{align*} &g^{ij} g_{jk} = g^{ji} g_{jk} = g^{ij} g_{kj} = g^{ji} g_{kj} = \delta^{i}_{k} , \\ &g^{AB} g_{BC} = g^{BA} g_{BC} = g^{AB} g_{CB} = g^{BA} g_{CB} = \delta^{A}_{C} . \end{align*} ### Arc length parametrization $\binom{1}{0}$ tensor 인 vector 를 설명하면서 scalar parameter $\lambda$를 도입했었다. 하지만 이런 parameter 를 도입하기가 난감한 경우가 다반사다. Line이 3차원 공간상에 있는데 색이 입혀져 있는 것도 아니고 시간에 따라 점입자 (point particle) 가 이동하는 궤적을 표현하는 것도 아닐때 우리가 이 line (or curve) 을 기술하기 위해 도입할 수 있는 scalar parameter 가 있을까? 상대론으로 들어가면 시간 또한 우리가 적당히 잡은 coordinate 의 한 축에 불과하다. 시간까지 들어간 3차원+1차원 space-time 에서의 curve 는 나중에 상대론 이야기를 하면서 다루기로 하고, 여기서는 3차원 공간에서 이 line (or curve) 을 coordinate independent 하게 설명하기 위한 arc length parametrization 에 대해 알아보려고 한다. 길이를 재는 metric 에 대해 배웠으니 이를 이용해서 line 을, 이 line 에 의해 정의되는 vector 를 기술하려는 것이다. 결론적으론 g_{AB} \frac{d \vec{x}_{C}}{d s}^A \frac{d \vec{x}_{C}}{d s}^B = \Big( \frac{d x_{C}}{d s} \Big)^2 + \Big( \frac{d y_{C}}{d s} \Big)^2 +\Big( \frac{d z_{C}}{d s} \Big)^2 = 1 이 되도록 arc length parameter $s$를 잡는다는 것이다. 즉 d x_{C}^2 + d y_{C}^2 + d z_{C}^2 = d s^2 이 되도록 $s$를 잡아야 한다. 이렇게 parameter 를 잡을 경우, 당연히 이 parameter $s$는 좌표계에 무관한 (but up to constant) scalar parameter 가 된다. 이 curve 가 나타내는 vector 만이 중요한 물리량이라 했을 때에는 어디를 $s$의 원점 ($s=0$) 으로 잡는지는 중요하지 않다. 단 어느 방향으로 갈 때 $s$가 증가할지에 따라 vector 의 방향이 정해진다. 따라서 항상 두가지 선택이 존재한다. 이것에 관해서는 우선은 이정도만 이야기하고 상대론에 들어가면 조금 더 분석해 보면서 개인적인 의견을 덧붙이겠다. (잠깐 이야기를 하자면: +, -전하의 origin? +time 으로 evolve 하는 입자와 -time 으로 evolve 하는 입자? 입자 vs 반입자? 등 아직은 그냥 지극히 개인적인 상상들이지만 우주를 이해하는 다른 방식의 사고가 될수도 있을듯해서...) 처음부터 arc length parametrization 을 완벽하게 하기란 불가능에 가까우므로 어떤식으로 arc length parametrization 을 할 수 있을지도 잠깜 알아보도록 하겠다. 우선 line 에 임의로 숫자 $\lambda$를 붙여서 parametrized curve 를 기술한다. 이 숫자 $\lambda$는 우리가 임의로 curve에 붙인 것이므로 물리적인 scalar 는 당연히 아니다. 각 좌표점에서 물리적 거리를 나타내는 metric 을 알고 있다고 한다면 $\lambda$로 인해 파생되는 vector 들도 line 의 각 위치에서 g_{AB} \frac{d \vec{x}_{C}} {d \lambda}^A \frac{d \lambda}{d s} \frac{d \vec{x}_{C}} {d \lambda}^B \frac{d \lambda}{d s} = 1 이 되도록 \frac{d s}{d \lambda} = \pm \sqrt{ g_{AB} \frac{d \vec{x}_{C}} {d \lambda}^A \frac{d \vec{x}_{C}} {d \lambda}^B } 를 구할 수 있고, 이 관계식으로부터 $\lambda$ parametrization 으로부터 arc length $s$ parametrization 을 구할 수 있게 된다. s (\vec{x}_C) = \int^{\lambda(\vec{x}_C)}_{\textrm{base}} d \lambda \frac{d s}{d \lambda} = \pm \int^{\lambda(\vec{x}_C)}_{\textrm{base}} d \lambda \sqrt{ g_{AB} \frac{d \vec{x}_{C}} {d \lambda}^A \frac{d \vec{x}_{C}} {d \lambda}^B } ##[.hiden] Covariant Derivative $\nabla_{A}$ $\binom{n}{m}$ tensor 를 $\binom{n}{m+1}$ tensor 로 만드는 operation 인 covariant derivative 가 정의될 수 있다. Gradient 와 비슷한 operator 인데 one-form 을 설명할 때, scalar field 에 이를 operation 시켜 one-form 을 만들고 one-form 에 대한 물리적 의미, 개념에 관해 이야기 할 때 봤을 것이다. 이젠 vector 에 이 operation 을 가해 어떻게 $\binom{1}{1}$ tensor 로 만들수 있을지 생각해보자. 일반적인 gradient 의 쓰임새처럼 $\nabla_A V^{B}$는 vector field $V^{B}$가 좌표점이 변함에 따라 어떻게 변하는가를 표현하게 될 것이라고 생각되어진다. \begin{align*} \nabla_A \big( V^{B} \big) &= e_{A}^{i} \partial_i \big( V^{j} e_{j}^{B} \big) \\ &= e_{A}^{i} \Big[ \partial_i \big( V^{j} \big) e_{j}^{B} + V^{j} \partial_i \big( e_{j}^{B} \big) \Big] \end{align*} 여기서 가장 애매한 부분이 $\partial_i \big( e_{j}^{B} \big)$이다. 어떻게 처리해야 할까? 이것도 어쩔수 없이 기준 coordinate 에서 어떻게 처리할지를 정하고 consistant 하게 transform 이 되도록 만들어야 할 것이다. 우선 다른 좌표점, 다른 위치에서 같은 vector 라는게 무엇일지를 고민해봐야 한다. 다시 Cartesian coordinate 로 가보자. Flat 한 공간을 묘사하는 coordinate 이기 때문에 서로 다른 위치, 좌표점에 있어도 vector 의 Cartesian component 가 같으면 두 vector 가 같다고 말할 수 있을것이다. 즉, \begin{align*} &\partial_{\bar{i}} \big( e_{\bar{j}}^{A} \big) = 0 \\ &\partial_{k} \big( e_{\bar{j}}^{A} \big) = 0 . \end{align*} Defining, therefore, connection basis vector, which is quite coordinate dependent, as \begin{align*} &\Gamma_{ij}^{~B} = \Gamma_{ij}^{~k} e_{k}^{B} \equiv \partial_{i} \big( e_{j}^{B} \big) \\ &= \partial_{i} \big( \Lambda_{j}^{\bar{l}} e_{\bar{l}}^{B} \big) = \partial_{i} \big( \Lambda_{j}^{\bar{l}} \big) e_{\bar{l}}^{B} = \partial_{i} \big( \Lambda_{j}^{\bar{l}} \big) \Lambda_{\bar{l}}^{k} e_{k}^{B} \\ &= \frac{\partial} {\partial x^{i}} \bigg( \frac{\partial x^{\bar{l}}} {\partial x^{j}} \bigg) \frac{\partial x^{k}} {\partial x^{\bar{l}}} e_{k}^{B} = \frac{\partial^2 x^{\bar{l}}} {\partial x^{i} \partial x^{j}} \frac{\partial x^{k}} {\partial x^{\bar{l}}} e_{k}^{B} = \frac{\partial^2 x^{\bar{l}}} {\partial x^{j} \partial x^{i}} \frac{\partial x^{k}} {\partial x^{\bar{l}}} e_{k}^{B} = \Gamma_{ji}^{~k} e_{k}^{B} = \Gamma_{ji}^{~B} \end{align*} \begin{align*} \nabla_A \big( V^{B} \big) &= e_{A}^{i} \partial_i \big( V^{j} e_{j}^{B} \big) \\ &= e_{A}^{i} \Big[ \partial_i \big( V^{j} \big) e_{j}^{B} + V^{j} \partial_i \big( e_{j}^{B} \big) \Big] \\ &= e_{A}^{i} \Big[ \partial_i \big( V^{j} \big) e_{j}^{B} + V^{j} \Gamma_{ij}^{~k} e_{k}^{B} \Big] \\ &= e_{Aj}^{iB} \Big[ \partial_i \big( V^{j} \big) + V^{k} \Gamma_{ik}^{~j} \Big] \\ \end{align*} 전개 과정에서 위 아래 반복되는 index 들은 (called dummy index, or repeated index) 기호를 바꿔도 되는 성질을 이용했다. 즉 $\binom{1}{1}$ tensor 인 $T_{A}^{B} \equiv \nabla_A \big( V^{B} \big)$는 \begin{align*} T_{i}^{j} &= \partial_i \big( V^{j} \big) + V^{k} \Gamma_{ik}^{~j} \\ &= \partial_i \big( V^{j} \big) + V^{k} \partial_{i} \big( \Lambda_{k}^{\bar{l}} \big) \Lambda_{\bar{l}}^{j} \end{align*} 의 component 를 갖는다. 정말 이것이 $\binom{1}{1}$ tensor 인지 tensor transformation 을 잘 만족하는지 확인해보도록 하자. Chicago convention 으로 표현된 $\nabla_A \big( V^{B} \big)$에서 시작하여 접근하면 당연히 $\binom{1}{1}$ tensor 일 수밖에 없지만 그래도 확인하는 차원에서. \begin{align*} T_{p'}^{q'} &= \Lambda_{p'}^{i} \Lambda_{j}^{q'} T_{i}^{j} = \Lambda_{p'}^{i} \Lambda_{j}^{q'} \Big[ \partial_i \big(V^{j} \big) + V^{k} \Gamma_{ik}^{~j} \Big] \\ &= \Lambda_{p'}^{i} \Lambda_{j}^{q'} \Big[ \partial_i \big( V^{j} \big) + V^{k} \partial_{i} \big( \Lambda_{k}^{\bar{l}} \big) \Lambda_{\bar{l}}^{j} \Big] \\ &= \Big[ \Lambda_{j}^{q'} \partial_{p'} \big( V^{j} \big) + V^{k} \partial_{p'} \big( \Lambda_{k}^{\bar{l}} \big) \Lambda_{\bar{l}}^{q'} \Big] \\ &= \Big[ \partial_{p'} \big( \Lambda_{j}^{q'} V^{j} \big) - \partial_{p'} \big( \Lambda_{j}^{q'} \big) V^{j} + V^{k} \partial_{p'} \big( \Lambda_{k}^{j'} \Lambda_{j'}^{\bar{l}} \big) \Lambda_{\bar{l}}^{q'} \Big] \\ \end{align*} \begin{align*} &= \Big[ \partial_{p'} \big( V^{q'} \big) - \partial_{p'} \big( \Lambda_{j}^{q'} \big) V^{j} + V^{k} \partial_{p'} \big( \Lambda_{k}^{j'} \big) \Lambda_{j'}^{\bar{l}} \Lambda_{\bar{l}}^{q'} + V^{k} \Lambda_{k}^{j'} \partial_{p'} \big( \Lambda_{j'}^{\bar{l}} \big) \Lambda_{\bar{l}}^{q'} \Big] \\ &= \Big[ \partial_{p'} \big( V^{q'} \big) - \partial_{p'} \big( \Lambda_{j}^{q'} \big) V^{j} + V^{k} \partial_{p'} \big( \Lambda_{k}^{q'} \big) + V^{j'} \partial_{p'} \big( \Lambda_{j'}^{\bar{l}} \big) \Lambda_{\bar{l}}^{q'} \Big] \\ &= \Big[ \partial_{p'} \big( V^{q'} \big) + V^{j'} \partial_{p'} \big( \Lambda_{j'}^{\bar{l}} \big) \Lambda_{\bar{l}}^{q'} \Big] \\ &= \Big[ \partial_{p'} \big( V^{q'} \big) + V^{j'} \Gamma_{p'j'}^{~~q'} \Big] . \end{align*} 예상대로 잘 따른다. 이젠 one-form 에 covariant derivative 를 다룰 차례다. 어떻게 될까? \begin{align*} \nabla_{A} \big( W_{B} \big) &= e_{A}^{i} \partial_{i} \big( W_{j} e^{j}_{B} \big) \\ &= e_{A}^{i} \Big[ \partial_{i} \big( W_{j} \big) e^{j}_{B} + W_{j} \partial_{i} \big( e^{j}_{B} \big) \Big] \end{align*} 마찬가지로 $\partial_{i} \big( e^{j}_{B} \big)$를 분석해보면, \begin{align*} \partial_{i} \big( e^{j}_{B} \big) = \partial_{i} \big( \Lambda^{j}_{\bar{l}} e^{\bar{l}}_{B} \big) = \partial_{i} \big( \Lambda^{j}_{\bar{l}} \big) e^{\bar{l}}_{B} = \partial_{i} \big( \Lambda^{j}_{\bar{l}} \big) \Lambda^{\bar{l}}_{k} e^{k}_{B} . \end{align*} Vector basis 를 미분할때 정의했던 $\Gamma_{ij}^{k} \equiv \partial_{i} \big( \Lambda_{j}^{\bar{l}} \big) \Lambda_{\bar{l}}^{k}$와는 어떤 관계가 있을까? $\Lambda_{j}^{\bar{l}} \Lambda_{\bar{l}}^{k} = \delta_{j}^{k}$로 좌표점, 위치에 관계없이 상수인 것을 이용, \begin{align*} &\partial_{i} \big( \Lambda_{j}^{\bar{l}} \Lambda_{\bar{l}}^{k} \big) = 0 \\ &= \partial_{i} \big( \Lambda_{j}^{\bar{l}} \big) \Lambda_{\bar{l}}^{k} + \Lambda_{j}^{\bar{l}} \partial_{i} \big( \Lambda_{\bar{l}}^{k} \big) \\ &= \Gamma_{ij}^{~k} + \Lambda_{j}^{\bar{l}} \partial_{i} \big( \Lambda_{\bar{l}}^{k} \big) . \end{align*} \partial_{i} \big( \Lambda_{\bar{l}}^{k} \big) \Lambda_{j}^{\bar{l}} = - \Gamma_{ij}^{~k} 인 것을 알 수 있다. 따라서 \partial_{i} \big( e^{j}_{B} \big) = - \Gamma_{ik}^{~j} e^{k}_{B} \equiv - \Gamma_{iB}^{~j} 로 표현된다. 마지막 부분은 성립하는 식이라기 보다 이렇게 쓰기로 정하자 정도가 되겠다. 이러한 관계식을 이용해 one-form의 covariant derivative를 표현해보면, \begin{align*} \nabla_{A} \big( W_{B} \big) &= e_{A}^{i} \partial_{i} \big( W_{j} e^{j}_{B} \big) \\ &= e_{A}^{i} \Big[ \partial_{i} \big( W_{j} \big) e^{j}_{B} + W_{j} \partial_{i} \big( e^{j}_{B} \big) \Big] \\ &= e_{A}^{i} \Big[ \partial_{i} \big( W_{j} \big) e^{j}_{B} - W_{j} \Gamma_{ik}^{~j} e^{k}_{B} \Big] \\ &= e_{AB}^{~i~j} \Big[ \partial_{i} \big( W_{j} \big) - W_{k} \Gamma_{ij}^{~k} \Big] \end{align*} 이다. Tensor transformation 은 당연히 만족한다. 의심이 들면 직접 해보자. 이제 마지막 단계로, 가장 일반적인 $\binom{m}{n}$ tensor 를 $\binom{m}{n+1}$ tensor 로 만드는 covariant derivative 의 경우만 남았다. 필요한 정보들은 위에서 다 유도해놨다. 다 차려놓은 밥상에 숟가락만 얹으면 된다. \begin{align*} \nabla_{A} \big( T^{BCD\cdots}_{FGH\cdots} \big) &= e_{A}^{i} \partial_{i} \big( T^{jkl\cdots}_{pqr\cdots} e^{BCD\cdots}_{j~k~l\cdots} e^{p~q~r\cdots}_{FGH\cdots} \big) \\ &= e_{A}^{i} \partial_{i} \big( T^{jkl\cdots}_{pqr\cdots} \big) e^{BCD\cdots}_{j~k~l\cdots} e^{p~q~r\cdots}_{FGH\cdots} \\ &~~ + e_{A}^{i} T^{jkl\cdots}_{pqr\cdots} \partial_{i} \big( e^{B}_{j} \big) e^{CD\cdots}_{k~l\cdots} e^{p~q~r\cdots}_{FGH\cdots} + e_{A}^{i} T^{jkl\cdots}_{pqr\cdots} \partial_{i} \big( e^{C}_{k} \big) e^{BD\cdots}_{j~l\cdots} e^{p~q~r\cdots}_{FGH\cdots} + \cdots \\ &~~ + e_{A}^{i} T^{jkl\cdots}_{pqr\cdots} \partial_{i} \big( e^{p}_{F} \big) e^{BCD\cdots}_{j~k~l\cdots} e^{q~r\cdots}_{GH\cdots} + e_{A}^{i} T^{jkl\cdots}_{pqr\cdots} \partial_{i} \big( e^{q}_{G} \big) e^{BCD\cdots}_{j~k~l\cdots} e^{p~r\cdots}_{FH\cdots} + \cdots \\ \end{align*} \begin{align*} &= e^{i}_{A} e^{BCD\cdots}_{j~k~l\cdots} e^{p~q~r\cdots}_{FGH\cdots} \Big[ T^{jkl\cdots}_{pqr\cdots} \\ &~~~~~~~~~~~~~~~~~~~~~~~ + T^{skl\cdots}_{pqr\cdots} \Gamma_{is}^{~j} + T^{jsl\cdots}_{pqr\cdots} \Gamma_{is}^{~k} + \cdots \\ &~~~~~~~~~~~~~~~~~~~~~~~ - T^{jkl\cdots}_{sqr\cdots} \Gamma_{ip}^{~s} - T^{jkl\cdots}_{psr\cdots} \Gamma_{iq}^{~s} - \cdots \Big] \end{align*} 규칙들은 금방 눈치 챌 수 있으리라 본다. 이것 또한 tensor transformation 을 만족한다. ##[.hiden] Divergence, Curl, and Laplace 이젠 지금까지 배운 vector 와 one-form 의 개념들, covariant derivative, metric 등을 잘 조작하여 무언가 의미를 갖는 operation 들이 없을지를 알아보자. ### Divergence 우선 divergence operation 이란 것에 대해 알아보기에 앞서 다른식으로 정의되는, divergence 를 이해하는데 더 도움이 되는 개념으로서의, vector field 에 대해 알아보려고 한다. 첫부분에서는 vector 의 개념적인 이해를 위해서 scalar parameter $\lambda$를 도입했다. 이 $\lambda$가 변함에 따라 얼마나 빠르게 다른 위치 (좌표점) 로 움직이려 하는가를 나타내는 것이 vector 라고 이야기를 하였는데, 이러고 보니 vector 를 vector field 개념으로 확장할때 문제가 생긴다. 이 $\lambda$라는 scalar 를 각 좌표점 (each and every points) 마다 다 도입을 해야하는 것이다. 즉 global 한 scalar, 그것도 값이 global 하게 바뀌는 scalar 가 도입되어야 하는듯한 느낌이다. 이렇게 값이 바뀌는 global 한 scalar 가 있을까? 간단하게 있다고 생각하고 전개하면 쉽겠지만 이게 간단한 문제가 아니다. 시간 (time) 이 값이 바뀌는 global scalar 가 될 수 있다고 말할 수 있을까? 상대론에 들어가면, 혹은 물리를 조금 더 근본적으로, 시간을 조금 더 근본적으로 바라보면 시간을 global scalar 라고 하기에는 부족한 부분들이 많이 보인다. 나머지는 상대론 설명을 하면서 이야기 하도록 하고, 값이 바뀌는 global scalar 를 잡기가 난감할 때 또다른 대안책 (alternative) 으로 vector 를 정의하는/이해하는 방법을 이야기 해보려 한다. 일반적인 d차원에서 scalar volume 을 구하는 법에 대해 이야기 했었는데, 이것에서 힌트를 얻어 다음과 같은 scalar 를 생각해보자. \begin{align*} &\int_{S} \epsilon_{ABC} V^{A} \frac{\partial \vec{x}} {\partial u}^{B} d u \frac{\partial \vec{x}} {\partial v}^{C} d v = \int_{S} \epsilon_{ABC} V^{A} e_{u}^{B} d u e_{v}^{C} d v \\ &=\int_{S} \epsilon_{ABC} \frac{d \vec{x}} {d \lambda}^{A} \frac{\partial \vec{x}} {\partial u}^{B} d u \frac{\partial \vec{x}} {\partial v}^{C} d v = \int_{S} \sqrt{g} \epsilon_{wuv} \frac{d \vec{x}} {d \lambda}^{w} d u ~ d v \end{align*} 단위 $\lambda$당 $du~dv$ surface 쪽으로 빠져나가는 scalar volume 의 양을 나타낸다는 걸 알수있다. 여기서 vector $V^{A}$는 당연히 각 점마다 값을 가지고 있는 field 개념의 vector 이다. 이것에서 힌트를 얻어 field 개념의 vector 를 다른식으로 정의할 수 있다. 처음은 간단하게 Cartesian 에서 시작하자. \int_{S} \epsilon_{ABC} V^{A} \frac{\partial \vec{x}} {\partial y}^{B} d y \frac{\partial \vec{x}} {\partial z}^{C} d z = \int_{S} \epsilon_{xyz} V^{x} dy dz = \int_{S} V^{x} dy dz 부호까지 잘 고려하면서, 위 값은 coordinate independent 한 scalar 일까? Vector 세개와 $\binom{0}{3}$ Levi-Civita tensor 가 contraction 된 것이므로 당연히 scalar 라고 생각할 수 있겠지만, 한가지 integral 이 취해진 surface $S$가 coordinate independent 하게 잡혔냐하는 것에 주의해야 한다. 위에서의 $S$는 $x=$const 인 평면이다. 이 surface 만 유지된다면 위 값은 scalar 가 된다. 이를 이용해서 $V^{x}$를 역으로 정의해보자. V^{x} = \frac{\textrm{scalar related to } dy ~ dz} {dy ~ dz} 이렇게만 써놓으면 너무 추상적이므로 구체적인 예들로 V^{x} = \frac{\textrm{number of lines passing through } [dy ~ dz] \textrm{ in }+x \textrm{ direction}} {dy ~ dz} 혹은 V^{x} = \frac{\textrm{number of particles passing through } [dy ~ dz] \textrm{ in }+x \textrm{ direction}} {dy ~ dz} 를 생각해보자. 갯수를 세는 것이므로 당연히 scalar 일테고, 이 scalar 에서부터 역으로 vector 를 정의 (생각) 하는것이 가능하다. 조금 더 general 한 coordinate $(u,v,w)$에서 생각하면, V^{u} = \frac{\textrm{scalar passing through } [dv ~ dw] \textrm{ in }+u \textrm{ direction}} {\sqrt{g} ~ dv ~ dw} $du~dv$ surface 로 단위 scalar $\lambda$당 빠져나가는 scalar 양으로 vector field 를 생각할 수 있게 된다. 이 때 일정 volume $V$를 정하고 이 volume 의 boundary $S = \partial V$를 통해 바깥으로 나가는 scalar 양을 알아내고자 한다면, \int_{S = \partial V} V^{A} \epsilon_{ABC} d S^{BC} = \int_{V} \frac{1}{\sqrt{g}} \partial_i \big( \sqrt{g} V^{i} \big) \sqrt{g} ~ du dv dw 형태로 계산되어짐을 짐작할 수 있다. 여기서 $dS^{BC}$는 $V^{A}$가 volume 의 바깥을 향하는 성분으로 적분되도록 정해진 surface $\binom{2}{0}$ tensor 이다. Divergence theorem (also known as Gauss's theorem or Ostrogradsky's theorem) 이라고 불리는 surface integral 을 volume integral 로 바꾼 형태이다. 보통 volume integral 을 surface integral 로 바꾸지만, divergence 의 개념적인 이해를 위해서는 surface integral 형태의 개념에서 volume 을 아주 작게 보내는 극한으로 이 미소 volume 점에서 바깥쪽으로 어떤 scalar 양이 발산 (diverge) 하는지를 나타내는 것으로 접근하는 것이 좋다. 즉, \frac{1}{\sqrt{g}} \partial_i \big( \sqrt{g} V^{i} \big) = \frac{\text{scalar going outside of }dV (= dudvdw)} {\sqrt{g} ~ dudvdw} 로 divergence 를 접근하자. $dudvdw$로 잘려진 미소 volume $dV$ 바깥쪽으로 나가는 scalar 양을 미소 scalar volume $\sqrt{g} ~ dudvdw$으로 나눈 형태이다. 왼쪽 편의 수식을 좀 더 정리해 보면, \begin{align*} \frac{1}{\sqrt{g}} \partial_i \big( \sqrt{g} V^{i} \big) &= \partial_i V^{i} + V^{i} \frac{1}{\sqrt{g}} \partial_i \sqrt{g} \\ &= \det ( \Lambda_{\bar{l}}^{m} ) \partial_i \big( \det ( \Lambda_{j}^{\bar{k}} ) V^{i} \big) \\ &= \partial_i V^{i} + V^{i} \det ( \Lambda_{\bar{l}}^{m} ) \partial_i \det ( \Lambda_{j}^{\bar{k}} ) . \end{align*} 여기서 \begin{align*} &\frac{1}{\sqrt{g}} \partial_i \sqrt{g} = \det ( \Lambda_{\bar{l}}^{m} ) \partial_i \det ( \Lambda_{j}^{\bar{k}} ) \\ &= \epsilon_{(123)}^{~\bar{p}\bar{q}\bar{r}} \Lambda_{\bar{p}}^{1} \Lambda_{\bar{q}}^{2} \Lambda_{\bar{r}}^{3} \partial_i \big( \epsilon_{~\bar{l}\bar{m}\bar{n}}^{(123)} \Lambda_{1}^{\bar{l}} \Lambda_{2}^{\bar{m}} \Lambda_{3}^{\bar{n}} \big) \\ &= \epsilon_{(123)}^{~\bar{p}\bar{q}\bar{r}} \epsilon_{~\bar{l}\bar{m}\bar{n}}^{(123)} \Lambda_{\bar{p}}^{1} \Lambda_{\bar{q}}^{2} \Lambda_{\bar{r}}^{3} \partial_i \big( \Lambda_{1}^{\bar{l}} \Lambda_{2}^{\bar{m}} \Lambda_{3}^{\bar{n}} \big) \end{align*} $\epsilon^{~\bar{l}\bar{m}\bar{n}}_{(123)}$는 좌표값에 상관없으니 이것에 대한 미분 $\partial_i$는 0이다. 또한 $\epsilon_{(123)}^{~\bar{p}\bar{q}\bar{r}} \epsilon_{~\bar{l}\bar{m}\bar{n}}^{(123)}$는 앞서 Levi-Civita tensor에서 정의한 $\epsilon_{\bar{l}\bar{m}\bar{n}}^{\bar{p}\bar{q}\bar{r}} = \delta_{\bar{l}\bar{m}\bar{n}}^{\bar{p}\bar{q}\bar{r}} - \delta_{\bar{l}\bar{n}\bar{m}}^{\bar{p}\bar{q}\bar{r}} + \cdots$이 된다. 이를 넣고 정리하면, \begin{align*} &\frac{1}{\sqrt{g}} \partial_i \sqrt{g} = \Big[ \epsilon_{\bar{l}\bar{m}\bar{n}} ^{\bar{p}\bar{q}\bar{r}} \Big] \Lambda_{\bar{p}}^{1} \Lambda_{\bar{q}}^{2} \Lambda_{\bar{r}}^{3} \Big[ \partial_i (\Lambda_{1}^{\bar{l}} ) \Lambda_{2}^{\bar{m}} \Lambda_{3}^{\bar{n}} + \Lambda_{1}^{\bar{l}} \partial_i ( \Lambda_{2}^{\bar{m}} ) \Lambda_{3}^{\bar{n}} + \Lambda_{1}^{\bar{l}} \Lambda_{2}^{\bar{m}} \partial_i ( \Lambda_{3}^{\bar{n}} ) \Big] \\ &= \Big[ \Lambda_{\bar{l}}^{1} \Lambda_{\bar{m}}^{2} \Lambda_{\bar{n}}^{3} - \Lambda_{\bar{l}}^{1} \Lambda_{\bar{n}}^{2} \Lambda_{\bar{m}}^{3} + \cdots \Big] \Big[ \partial_i ( \Lambda_{1}^{\bar{l}} ) \Lambda_{2}^{\bar{m}} \Lambda_{3}^{\bar{n}} + \Lambda_{1}^{\bar{l}} \partial_i ( \Lambda_{2}^{\bar{m}} ) \Lambda_{3}^{\bar{n}} + \Lambda_{1}^{\bar{l}} \Lambda_{2}^{\bar{m}} \partial_i ( \Lambda_{3}^{\bar{n}} ) \Big] \end{align*} 여기서 왼쪽 첫번째 $\Lambda_{\bar{l}}^{1} \Lambda_{\bar{m}}^{2} \Lambda_{\bar{n}}^{3}$만 살아남고 나머지는 다 죽게된다. 예를 들어 $\Lambda_{\bar{l}}^{1} \Lambda_{2}^{\bar{l}} = \delta_{2}^{1} = 0$와 같이 0으로 떨어지니까. 결과적으로 \begin{align*} &\frac{1}{\sqrt{g}} \partial_i \sqrt{g} = \Lambda_{\bar{l}}^{1} \Lambda_{\bar{m}}^{2} \Lambda_{\bar{n}}^{3} \Big[ \partial_i ( \Lambda_{1}^{\bar{l}} ) \Lambda_{2}^{\bar{m}} \Lambda_{3}^{\bar{n}} + \Lambda_{1}^{\bar{l}} \partial_i ( \Lambda_{2}^{\bar{m}} ) \Lambda_{3}^{\bar{n}} + \Lambda_{1}^{\bar{l}} \Lambda_{2}^{\bar{m}} \partial_i ( \Lambda_{3}^{\bar{n}} ) \Big] \\ &= \Lambda_{\bar{l}}^{1} \partial_i ( \Lambda_{1}^{\bar{l}} ) \delta_{2}^{2} \delta_{3}^{3} + \delta_{1}^{1} \Lambda_{\bar{m}}^{2} \partial_i ( \Lambda_{2}^{\bar{m}} ) \delta_{3}^{3} + \delta_{1}^{1} \delta_{2}^{2} \Lambda_{\bar{n}}^{3} \partial_i ( \Lambda_{3}^{\bar{n}} ) \\ &= \Lambda_{\bar{l}}^{1} \partial_i ( \Lambda_{1}^{\bar{l}} ) + \Lambda_{\bar{m}}^{2} \partial_i ( \Lambda_{2}^{\bar{m}} ) + \Lambda_{\bar{n}}^{3} \partial_i ( \Lambda_{3}^{\bar{n}} ) \\ &= \Lambda_{\bar{l}}^{j} \partial_i ( \Lambda_{j}^{\bar{l}} ) \end{align*} 가 된다. 이는 connection $\Gamma_{ij}^{~k}$로 표현이 가능하다. \Gamma_{ij}^{~A} = \partial_{i} e_{j}^{A} = \partial_{i} ( \Lambda_{j}^{\bar{l}} ) e_{\bar{l}}^{A} = \partial_{i} ( \Lambda_{j}^{\bar{l}} ) \Lambda_{\bar{l}}^{k} e_{k}^{A} 이므로 \frac{1}{\sqrt{g}} \partial_i \sqrt{g} = \Lambda_{\bar{l}}^{j} \partial_i ( \Lambda_{j}^{\bar{l}} ) = \Gamma_{ij}^{~j} 이다. 종합하면, \begin{align*} \frac{1}{\sqrt{g}} \partial_i \big( \sqrt{g} V^{i} \big) &= \partial_i V^{i} + V^{i} \frac{1}{\sqrt{g}} \partial_i \sqrt{g} \\ &= \partial_i V^{i} + V^{i} \det ( \Lambda_{\bar{l}}^{m} ) \partial_i \det ( \Lambda_{j}^{\bar{k}} ) \\ &= \partial_i V^{i} + V^{i} \Lambda_{\bar{l}}^{j} \partial_i ( \Lambda_{j}^{\bar{l}} ) \\ &= \partial_i V^{i} + V^{i} \Gamma_{ij}^{~j} \end{align*} 가 된다. 다음과 같은 scalar 를 생각해보면, \begin{align*} \nabla_{A} \big( V^{A} \big) &= e_{A}^{i} \partial_{i} \big( V^{j} e_{j}^{A} \big) \\ &= e_{A}^{i} \Big[ \partial_{i} \big( V^{j} \big) e_{j}^{A} + V^{j} \partial_{i} \big( e_{j}^{A} \big) \Big] \\ &= \delta_{j}^{i} \partial_{i} \big( V^{j} \big) + e_{A}^{i} V^{j} \Gamma_{ij}^{~A} \\ &= \partial_{i} \big( V^{i} \big) + V^{j} \Gamma_{ij}^{~i} \\ &= \partial_{i} \big( V^{i} \big) + V^{j} \partial_{i} \big( \Lambda_{j}^{\bar{l}} \big) \Lambda_{\bar{l}}^{i} \end{align*} 위의 결과와 값이 같음을 알 수 있다. 즉, \begin{align*} &\nabla_{A} \big( V^{A} \big) = \frac{1}{\sqrt{g}} \partial_i \big( \sqrt{g} V^{i} \big) \\ &= \partial_i V^{i} + V^{i} \Gamma_{ij}^{~j} \end{align*} 인 divergence operation 이 정의되게 된다. Vector field 두개로 다음과 같은 scalar 를 만드는 것도 가능? \begin{align*} \int \epsilon_{ABC} V^{A} W^{B} \bigg( \frac{\partial \vec{x}} {\partial v}^{C} d v \bigg) \end{align*} 이것도 scalar volume이랑 관계된거 같긴 한데... 의미 없나? \nabla_{A} T^{AB} 와 같이 $\binom{2}{0}$ tensor에 divergence를 취하는 것은 무엇을 의미할까? ### Curl 보통 curl 을 3차원에서 많이들 배우기 때문에, vector 에 curl 을 취하면 vector ($\binom{1}{0}$ tensor) 를 줄 것이라고 오해하기 쉽다. $\nabla \times \vec{E}$와 같이 말이다. 하지만 tensor 적으로 curl 을 보려면 이런식으로는 한계가 있다. 3차원에서만 curl operation 을 취하는게 아니라 임의의 d차원에서도 curl operation 을 정의할 수 있어야 할 것이기 때문이다. Divergence 와 마찬가지로 적분형태에서 먼저 출발해보자. \oint_{C = \partial S} d l^{A} W_{A} 와 같은 circular integration 을 생각해보자. 이는 one-form $W_A$가 curve $C$를 돌아왔을때 얼마나 scalar 값이 변했는지를 나타낸다. One-form 을 설명할 때 scalar field 에 covariant derivative 를 취하는 형식으로 설명했다. ($W_A = \nabla_A \phi$) One-form $W_A$가 이런식으로 표현된다면 위의 circular integration 값은 항상 0이 나오겠지만, 이는 one-form 의 coordinate component transformation 에 관해 설명하기 위해 도입한 설명방식일 뿐 더 일반적인 one-form 에 관해서는 circular integration 이 0이 아닌 값을 가질수도 있다. \epsilon_{AB}^{CD} \nabla_{C} \big( W_{D} \big) = \nabla_{A} W_{B} - \nabla_{B} W_{A} #### Curvature [\nabla_A , \nabla_B] V^{D} = R_{ABC}^{~~~~~~D} V^{C} Loop을 따라서 parallel transport 시킨 뒤 두 vector를 비교하는 것이라 할 수 있다. ### Laplacian g^{AB} \nabla_{A} \nabla_{B} ##[.hiden.no-sec-N#sec-Sup-Comments] Supplementary comments 위에서 tensor 를 설명하면서 도입한 가정들, 기준으로 잡았던 것들, 정의들을 수정한다면 전혀 다른 이론으로 전개해 갈수도 있다. 예를 들자면, \Gamma_{ij}^{~k} \neq \Gamma_{ji}^{~k} 인채로 전개해 나간다던지, g_{ij} \neq g_{ji} 처럼 symmetry 를 가정하지 않고, symmetry 를 깨버린 채 전개해 나가는 등 직관적으로 그럴듯하고 당연할거처럼 보이는 것들을 한가지씩 건드려서 다른 이론으로 전개해 나가는 경우도 많다. 당연하다고 느꼈던걸 당연하다고 안느끼고 의문을 가지고 고민하고 연구하면 때로는 정말 새로운 참신한 결과가 나올때도 있으니까. 하지만 이 과정에서 어느 부분에 의문점을 가질 것인가가 매우 중요하다. 마구잡이로 아무대나 고쳐보면서 참신한 결과를 기대하기는 힘들다. 뭐 운으로 때려맞추는 경우도 많긴 하지만... 가장 덜 그럴듯해 보였던 가정들을 먼저 깨고 전개해 나가 본다던지, 적절한 전략을 택해서 될거같은 곳에 먼저 집중해야 결과가 잘 나올 것이라 생각된다. 뭐 때로는 무턱대고 이상한 길로 들어서야만 신기한걸 발견하기도 하긴 하지만... 비주류 혹은 사이비 과학쪽에 빠지는 사람들이 간혹 보이기도 하는데, 비주류 쪽은 본인이 궁금해하고 연구하고 싶어서 빠지는거라 쳐도 무지에서 비롯된 사이비 이론, 사이비 과학쪽은 좀 조심하자. 그리고 비주류 쪽에 빠질때도 본인이 무엇이 궁금해서, 무엇이 알고싶은지를 명확히 하고 나아가자. 어떠한 문제점을 해결하려고 달려든 것이지, 무엇이 궁금한지도 명확히 하지 않은채 나아가면 삼천포로 빠지기 쉽상이다. Problem solving approach (PSA) 의 첫단계가 풀고자 하는 문제를 명확히 구체화하는 것이니까. 그래도 언제나 선택은 본인 몫이다. ##[.hiden.no-sec-N#sec-Index-Def] Index and Definition
  • Einstein's summation convention: Repeated upper and lower index pair means summation over all. V^{i} W_{i} = \sum_{i} V^{i} W_{i} A pair of repeated upper (or lower) indices does not mean summation. V^{i} V^{i} \neq \sum_{i} V^{i} V^{i}
  • Short-handed notation: \Lambda^{i}_{\bar{j}} \equiv \frac{\partial x^{i}}{\partial x^{\bar{j}}}, \qquad \Lambda^{k'}_{j} \equiv \frac{\partial x^{k'}}{\partial x^{j}}, \qquad \Lambda^{i}_{j'} \equiv \frac{\partial x^{i}}{\partial x^{j'}}, \cdots , \Lambda_{ij}^{\bar{k}\bar{l}} \equiv \Lambda_{i}^{\bar{k}} \Lambda_{j}^{\bar{l}} , \Lambda_{ijk}^{\bar{l}\bar{m}\bar{n}} \equiv \Lambda_{i}^{\bar{l}} \Lambda_{j}^{\bar{m}} \Lambda_{k}^{\bar{n}} , \Lambda_{i\bar{k}}^{\bar{l}j} \equiv \Lambda_{i}^{\bar{l}} \Lambda_{\bar{k}}^{j} , and so on.
  • Short-handed notation: e^{AB}_{i~j} \equiv e^{A}_{i} e^{B}_{j} , \qquad e_{AB}^{i~j} \equiv e_{A}^{i} e_{B}^{j} , \qquad e^{Aj}_{iB} \equiv e^{A}_{i} e^{j}_{B} , and so on.
## RRA

    Books

  1. Book - A First Course in General Relativity, 1985-02-22, by Bernard F. Schutz.; 처음 상대론을 배울때 쓰면 좋은 교재같음.
  2. Web - Lecture Notes on General Relativity, 1997, by Sean M. Carroll.; 인터넷에서도 볼 수 있어서 좋은 책. Carroll씨가 꽤 유명한듯?
  3. Book - Gravitation and Cosmology: Principles and Applications of the General Theory of Gravity, 1972, by Steven Weinberg.; 잘 정리되어 있는 책같음. 하지만 오래된 책이라서 디자인이나 구성이나 수식 form이 구식인듯한 느낌. (대부분의 유명한 상대론 책들은 고전인듯.)
  4. Book - Gravitation, 1970, by Charles W. Misner, Kip S. Thorne, and John Archibald Wheeler.; 꽤나 두꺼운 책. 유명하긴 한듯? 이것도 오래된 책(고전). Legendary book이라고 칭하는 사람도 있는듯. 제대로 읽은적이 없어서 개인적인 판단은 아직.
  5. Related Posts

  6. kipid's blog - 텐서(Tensor)와 상대론(Relativity) - 1. 상대론(Relativity)
  7. 전파거북이(EM turtle)'s blog - 텐서(Tensor), 2011-06, by EM turtle; 수학적 시각의 텐서 설명.
  8. Wiki - Tensor (텐서); 한글 페이지는 설명이 거의 없음. 일부분은 제가 편집.
  9. kipid's blog - SI, cgs 단위계 및 물리상수들 (SI, cgs unit and physical constants)
  10. kipid's blog - 선형 대수학 간단한 정리들 (Linear Algebra)
  11. Wiki - 뉴턴 운동 법칙
  • 와!!!!!!!!!!
    이렇게 방대한 양을....
    어떻게 포스팅 하신건지 여쭤봐도 될까요?
    저도 물리학 포스팅 하는 중인데
    저랑 레벨이 다르시네요!!!
    대단해요!!
    그리고 감사합니다!
    텐서에대한 개념이 모호했는데...
    정말 감사합니다.
    두고두고 봐야 할 글 같아요!!

    • 티스토리 적응하기 힘드네요 아직 ^^. 초대장 감사합니다.
      이건 HTML이랑 CSS, 자바스크립트랑 codecogs.com 등을 써서 작성했습니다. 원래 Latex로 작성해서 pdf 파일로 가지고 있던건데, 이번에 맘먹고 HTML로 변환해봤어요. (Latex 형식의 글을 HTML로 스크립팅? 해주는 프로그램도 개발하고 싶었기 때문에 겸사겸사...ㅋ. 이건 자동으로 변환한건 아니고, 어떻게 변환하는게 좋을까 고민하면서 수작업을 많이 했더랬죠;;;)

      HTML이나 CSS, 자바스크립트(요건 저도 제대로 다룰 줄 모름.) 배워놓으면 인터넷에 글 쓸 때 좋은거 같아요. CSS나 자바스크립트는 티스토리 빼고 대부분 인터넷 사이트에서 막히는 듯 하긴 하지만;;; HTML, CSS, 자바스크립트 공부해보고 싶으시면 소스파일 보내드릴께요.

  • 물리물리 2013.02.25 10:18 신고 댓글주소 수정/삭제 댓글쓰기

    정말 고맙습니다!! 요즘 텐서를 공부하고 있는데 너무 막막해서 힘들었어요 ㅠㅠ 이글 보고 다시 노력하고 있습니다!! 고맙습니다!!!

  • ClassicTree 2013.03.06 17:06 신고 댓글주소 수정/삭제 댓글쓰기

    포스팅 감사합니다
    대단하세요!!!

  • Goldbach 2013.05.06 21:15 신고 댓글주소 수정/삭제 댓글쓰기

    공부에 큰 도움 되었습니다. 감사합니다^^

  • 비밀댓글입니다

  • 궁그미 2013.09.23 01:35 신고 댓글주소 수정/삭제 댓글쓰기

    물리나 수학의 지식이 약한 일반인의 입장에서 텐서란 것이 무엇인지에 대해 도움이 될 만한 부분은 1 Cartesian Coordinate and Flat Space 에 써놓은 부분이군요. 그 뒤에 나온 내용들은 다른 홈피나 블로그에 나온 내용들과 다르지 않습니다. 물리나 수학에 지식이 없는 사람들의 입장에서는 전혀 감잡을 수 없는 내용인듯 합니다.

    텐서란 변하지 않는 물리량을 표현하는 기법이다 그러한 텐서의 종류에는 이러이러한 것들이 있다 라면서 그 응용예들을 하나씩 적는 것이 좋을 듯 합니다. 그래야 글의 흐름이 매끄러워보입니다. 그리고 굳이 복잡한 수식을 남발하지 않아도 텐서란 것이 무엇인지 설명이 가능할 듯도 한데 그런 부분이 많이 아쉽네요. 여기 나온 수식들을 다 이해할 만한 사람들이 텐서란 개념을 모른다고 보기도 힘들구요.

    2 Tensor the beginning 부터 느닷없이 엄청난 수식들이 튀어 나오면서 무슨 소리하는지 알아먹기 힘드네요. 이 글을 위한 대상이 물리나 수학에 수련된 학생들이라면 할 말 없지만요.

    아무튼 일반인들을 위한 좀 더 개념설명이 있었으면 합니다. 저런 엄청난 수식들 다 제거 하고요. 유튜브에 보니 이런 간략한 설명도 있네요. https://www.youtube.com/watch?v=HDCafA-Xjis

    쉽게 설명했다는 말에 읽어봤더니 난감함만 느끼고 갑니다.

    • 유투브 설명은 너무 간단한듯 하네요. 제가 핵심이라고 생각하는 텐서에 관한 설명도 빠져있고...

      제가 생각하는 핵심은 2장 Tensor the beginning에 있는데... (미적분에만 어느정도 익숙하면 읽는데 큰 어려움 없을거라고 생각하긴 했는데... 수식이 아예 없거나 하면 제대로 이해하기 힘듭니다. 뭐 완전 비전문가를 위한 글은 아니라서 배경지식은 다른데에서 익히시고 나중에라도 다시 읽어보시길 조언합니다.)

      여기 나온 수식을 다 이해할만한 사람들도 텐서를 제대로 이해하고 있는 사람은 드물었어요. (뭐 제 경험상이라.. 제 주변만 이랬을수도 있지만.) 그리고 개인적으로 개념정리식으로 쓴거라서 저에게 맞춰져 있는 면도 많네요.

      마무리를 어찌해야 하지?ㅋ 나중에라도 한번 다시 읽어보러 오시길... (더 업데이트를 언제할지는 기약이 없지만;;;)

  • 지나가는사람 2014.01.15 03:00 신고 댓글주소 수정/삭제 댓글쓰기

    헷갈리기 쉽달까, 틀린 표기법이죠. 저렇게 의미불명의 식은 안쓰는게 맞다고 봅니다. (6)을 보십시요. 5e_x=5e_r+\pi/2e_\theta가 어떻게 맞는 식입니까. 극좌표에서의 위치벡터의 식은 위에도 썼듯이 x=re_r입니다.

    단위벡터를 안쓰면 noncoordinate bases에서는 그럼 뭘 쓰나요?

    그리고 (35)식에서도 벡터와 one-form을 쓰고 A에 대해서 합을 취하는 듯한 표기를 하시는데 A의 정체가 뭔지 모르겠네요. 보통 물리에서 벡터에 위첨자를 쓰는 것은 그 성분만을 뽑아와서 쓸 경우에 그렇게 쓰는 것인데, A는 뭔가요?

    • 제대로 천천히 읽으시면 헷갈릴 일 없으실텐데...

      2.1 Point, Position, or Event 에 써놨듯이
      // 여기서 사용되는 표기 방식은 Chicago convention(Chicago 대학쪽 교수님들이 사용? 정확한 이름은 아닙니다;;)과 Einstein's summation convention(위 아래 반복되는 index들은 자동으로 summation을 생략해서 씁니다.) + my own convention 입니다. 일반적으로 널리 쓰이는 표기방식은 아니지만, 최대한 systematic하게 만들려고 노력하고 있습니다. 이 표기방식대로 tensor를 이해하시고 나면, 다른 표기방식으로 쓴 tensor들도 쉽게 이해하실 수 있을거라 생각됩니다. Convention들에 관한 정리는 section `Index and definition'을 참고.

      본문에서도 설명했듯이 position은 tensor가 아닙니다. 따라서 일반적으로 위치 표현할때 $\vec{r} = r \hat{r}$ 이렇게들 많이 쓸텐데... 이렇게 쓰지 말자는 거죠. 뭐 제 convention(표기법)입니다. 이런 위치들은 좌표계가 도입되지 않으면 숫자로 표현이 되지 않아요. 다른 좌표계를 도입했을때 서로간의 좌표변환도 vector나 one-form 같은 애들하고 완전히 다르구요.

      너무 시비를 거시는듯;;;;; 틀린 표기법이라기 보단 다른 표기법이죠. 뭐 논문에서는 자주 안쓰는 표기법이긴 합니다. Chicago convention 자체가 그런듯. 저도 상대론 수업시간에 교수님께 배우고 더 정리한거긴 한데, 논문들에서 안쓰는것 보면 사장된듯도 싶고... Carroll 교수도 많이 사용한걸로 아는데. 책에서는 못찾겠네요.
      http://ned.ipac.caltech.edu/level5/March01/Carroll3/Carroll_contents.html

      Component representation랑 tensor 자체를 구분짓는데에 유용해서 좋아하는 표기법인데.. 마음에 안드시면 다른 tensor 교본 참조하세요. 쓰신 댓글을 읽어봐도 제가 틀린것 같진 않아요. 하는 이야기가 어긋나 있을뿐;;;

      Coordinate, Non-coordinate basis 관련은 본문에서 ctrl+F로 검색하셔서 읽어보시길... section 2에 아마 있을거예요. (여기서는 제대로 설명을 안써놓긴 했군요. 전 "A First Course in General Relativity by Bernard F. Schutz (Feb 22, 1985)"에서 설명 읽었던 기억이 있는데.. 책을 찾아보시거나 구글에 검색해 보시거나 해보세요.)

  • 학생 2014.02.13 17:57 신고 댓글주소 수정/삭제 댓글쓰기

    수식들이 안보입니다. 예를 들어 (우선 space(or manifold) 상의 점들(Point, Position, or Event)은 다음과 같이 나타내도록 한다. \begin{align*} \vec{x} &= x^{\bar{i}} \vec{e}_{\bar{i}} = x \vec{e}_x + y \vec{e}_y + z \vec{e}_z \\ &= x^{i} \vec{e}_{i} = r \vec{e}_r + \theta \vec{e}_{\theta} + \phi \vec{e}_{\phi} \\ &= x^{i'} \vec{e}_{i'} = u \vec{e}_u + v \vec{e}_v + w \vec{e}_w \\ \end{align*})
    이렇게 나와요...

    • 수식을 codecogs 사이트를 이용해서 작성했는데, 이 사이트가 잠깐 막혔나봐요. 새로고침 해보시거나 몇시간 뒤에 다시 접속해 보시길... 아님 구글 docu 링크타고 가서 보셔도 돼요.

      이렇게 해도 안보이시면, 브라우저 버전(IE, 사파리, 파폭, 크롬) 알려주시면 해결해보도록 하겠습니다. 전 크롬에서만 확인해서 다른 브라우저에서 수식 처리하는 javascript가 안먹혔을수도...

  • 학생 2014.02.14 18:39 신고 댓글주소 수정/삭제 댓글쓰기

    IE입니다. ~~

  • 학생 2014.02.14 20:53 신고 댓글주소 수정/삭제 댓글쓰기

    몇개는 보이고 거의 90이상은 안보이네요.

    • 음... 뭐 때문에 안보이는지 잘 모르겠는데 -ㅇ-;;; 프린트 스크린 하신 사진이라던지 정보를 더 주셔야 해결책을 찾을 수 있을듯 합니다.

      인터넷(블로그)에서 수식 사용하기
      http://kipid.tistory.com/entry/equations-in-html
      이 글에서는 수식 잘 보이시는지 확인해 보세요. 그림 파일로 된 수식만 안보이는거라면, 접속하신 곳에서 codecogs를 막아놓은듯 하기도 하고, 이곳 접속만 인터넷이 느리셔서 그럴지도 모르겠고... 조만간 MathJax로 수식 폼을 바꿀 생각이긴 한데, 한두달 뒤에나 건들거 같기도 해서.

  • 학생 2014.02.15 19:28 신고 댓글주소 수정/삭제 댓글쓰기

    ㅠㅠ 아쉽군용

  • "지나가는사람"님 댓글을 수식이 보이게 수정//

    어쩌다가 읽어보게 되었는데, 처음 조금 읽다가 오류가 조금 있어서 댓글적습니다.

    몇가지는 알면서 일부러 저렇게 쓰신건지 싶은것도 있습니다만, 일단 적어 보겠습니다.

    먼저 (1)은 틀린 식입니다. 만약 x가 위치좌표라면 직교좌표를 제외하고 다 틀렸습니다. 예를 들어 polar coordinate라면 $x=r~e_r$이 되어야 하겠죠. x가 위치좌표가 아니라고 하면 전부 틀렸습니다. 각 벡터의 성분은 좌표에 의존하는 임의 함수가 되어야겠죠. 그리고 직교좌표를 제외하고는, 단위벡터들도 전부 좌표에 의존합니다. (17)식이 그나마 제일 근접하게 갔는데, x가 위치좌표가 아니라는 가정하에, 앞에서 말한대로 단위벡터들이 람다에 의존하게 만들면 될 것 같습니다.

    (23)식도 의미불명입니다. r과 $x_C$를 구별해서 쓰는 이유를 잘 모르겠네요. 두번째 줄의 우변에서는 첫번째 항만 남고 나머지는 다 없어져야 정상인데, 어떤 notation을 쓰고 있으신지 잘 모르겠네요.

    그리고 직교좌표만 구분하시고 있는데 굳이 구분해야 할 필요가 있는가 싶습니다.

    안좋은 말만 쓴 것 같아 죄송합니다. 근데 이렇게 정리하는 것은 좋은 시도라고 생각됩니다. 더 다듬어서 많은 사람들에게 도움이 되는 블로그가 되었으면 좋겠습니다.

    • Eq. (1)은 그냥 좌표를 다르게 나타낸거예요.
      (x,y,z)를 $(r,\theta,\phi)$로... 그냥 표기법을 깔끔하게 쓴답시고 저렇게 쓴건데, 많이 쓰이는 표기법이 아니라서 헷갈리기 쉽긴 하겠네요.

      나머지도 천천히 읽어보시길.. Tensor 개념으로 넘어오면 단위벡터(Non-coordinate basis라서)란 놈은 잘 안써요.

  • 이 내용과 관련 없을 것 같지만, 질문이 있어서 올립니다.

    결국 script의 갯수가 2개 이상인 경우가 tensor가 된다라고 이해를 했습니다. 제가 수업에서 배우기로는 script종류 수가 rank를 결정하게 된다는 것 인데, script가 3개인경우 반드시 rank3 가 되는 근거가 무엇인지 궁금합니다.

    더 나아가, 무수히 많은 script(윗첨자 갯수 m개 아래첨자 갯수 n개)로 이루어진 경우도 m+n rank가 되는 증명 방법이 무엇인지 궁금합니다.

    제가 처음부터 잘못 알고 있었다면, 제대로 알도록 노력하겠습니다.

    • 텐서랑 윗첨자, 아랫첨자 수는 상관 없습니다. 이 수가 0개인 스칼라도 텐서로 분류되니까요. 그리고 rank는 그냥 정의일텐데요. 윗첨자수+아랫첨자수 더한걸 rank라고 하기로 한. 아마 선형대수학 쪽에서 쓰이던 rank란 놈을 텐서에서도 쓰는거 같긴한데, 별로 중요한 개념은 아니라고 봅니다.

  • 물리학도 행인1 2014.05.13 01:46 신고 댓글주소 수정/삭제 댓글쓰기

    다행히도, 케임브릿지 강의내용으로 보이는 곳에서 스칼라, 벡터, 텐서에 대한 내용이 있어 올립니다.

    http://www.doitpoms.ac.uk/tlplib/tensors/what_is_tensor.php

    Tensors are simply mathematical objects that can be used to describe physical properties, just like scalars and vectors. In fact tensors are merely a generalisation of scalars and vectors; a scalar is a zero rank tensor, and a vector is a first rank tensor.

    The rank (or order) of a tensor is defined by the number of directions (and hence the dimensionality of the array) required to describe it. For example, properties that require one direction (first rank) can be fully described by a 3×1 column vector, and properties that require two directions (second rank tensors), can be described by 9 numbers, as a 3×3 matrix. As such, in general an nth rank tensor can be described by 3n coefficients.

    보면, Rank 0 tensor 인경우 scalar, Rank 1 tensor인 경우 vector 라고 써 있습니다. 다른말로 하자면, script의 갯수가 몇개가 되든 관계없이 Rank 0 이라면, 이는 Scalar로 변환하여 다룰 수 있음을 의미합니다.

    matric tensor의 경우, 어떻게 하든 반드시 시간과 위치에 대한 변수 2개가 필요하며, 이를 적절하게 가용하더라 할 지라도 반드시 rank 2 가 된다는 것은 자명하다 생각합니다.

    즉, Rank의 갯수가 2 미만일 경우, rank를 따져서 이것이 scalar처럼 다룰 수 있는가, 아니면 vector로 다룰 수 있는가는, 계산이나 물리적인 의미를 부여하는데 있어서 매우 중요한 판가름 거리라고 생각합니다(제가 하고 있는 공부에서 디락 메트릭스의 경우 분명 rank2 matrix 이지만, 벡터처럼 움직이는 것과 어느정도 일맥상통한다 봅니다).

    따라서, 저는 rank가 얼마가 될 것인가가 중요하다 생각하였기에, 이와 같은 질문을 드린 것 입니다.

    아니면, 제가 컨셉자체를 잘못 이해한 것이라고 봐도 무방한가요?

    • "script의 갯수가 2개 이상인 경우가 tensor가 된다"라고 하셔서 script 갯수가 0개, 1개인것도 텐서일 수 있다라는 뜻에서 상관 없다고 한거구요. script의 수 (rank) 가 이 텐서가 무엇을 뜻하는가를 이해하는데에 중요하긴 합니다. 위에 있느냐 아래에 있느냐도 중요한거라서 (m,n) tensor 인지가 m+n값보다 더 중요한것이라고 생각해요.

      rank라는게 방향이 몇개인가랑 관계된게 맞긴 합니다. 더 중요한 개념은 이 방향이란 개념을 도입된 좌표계나 관측자에 관계없이 누구나 다 같은 이야기를 할 수 있도록 하려면 어떤 방식을 도입해야 하는가 일텐데... 천천히 읽어보시면 어느정도 이해 되실거예요. (지금 느끼기에는 읽고 질문하신거라기 보다, 그냥 rank 관련해서 어림잡고 계신 개념을 묻고 계신듯해서... 간단히 설명드리기가 힘드네요.)

      스칼라에도 script를 붙여서 쓰는 경우도 있긴하겠지만, (별로 좋은 방법은 아니기도 하고) rank를 따져서 script가 2개인걸 스칼라로 다루고 이러는건 -ㅇ-;;; zero tensor들은 어느 좌표에서도 값들이 0이기 때문에 (0,2) zero tensor도 scalar로 다루겠다는 식인건지... 제가 잘 이해를 못하겠네요. Kroneker-delta tensor도 vector가 아니라 그냥 (1,1) tensor로 다루는데...

      (집중 못하고 멍한 상태라 제대로 답변이 됐는지 모르겠네요.)

  • sdfsdf 2016.03.04 09:50 신고 댓글주소 수정/삭제 댓글쓰기

    아 오픈 하셨군요. 감사히 읽겠습니다.

  • 직장인물리 2017.03.21 09:54 신고 댓글주소 수정/삭제 댓글쓰기

    안녕하세요~ 물리와는 크게 상관 없는 일을 하고있지만 학부때 배웠던게 생각나고 재밌어서 다시 공부하고 있는 직장인 입니다! ㅎㅎ 일반상대성이론 공부하다보니 공변, 반변벡터, 텐서에서 좌절하고 있었네요 ㅠㅠ 이 블로그 보고 정말 많은 도움 얻어갑니다!!

    근데 보다보니 이해가 잘 안되는 부분이 있어서요 ㅠㅠ

    1. 식 (3-24)에 있는 r은 r = ( C x (λ), C y (λ), C z (λ) ) 인 원점에서 점까지를 가르키는 위치벡터 인가요? 그렇다면 x에 대해 편미분을 할 때 미분이 어떻게 정의가 되는지 잘 모르겠습니다 ㅠㅠ 차라리 r이 vector field라면 x에 대한 편미분을 이해 할 수 있겠는데 저렇게 무작위로 움직이는 점의 궤적을 그린 vector 를 어떻게 편미분 하는지 이해가 잘 안됩니다 ㅠㅠ

    2. 마찬가지로 식 (3-23)도 미소변위 x만큼 변한거에 대한 벡터 r의 변화율 인건데 저게 어떻게 x축 단위 벡터가 되는지도 헷갈리네요 ㅠㅠ vector field 라고 생각을 해도 x가 변한다고 해서 r도 x축 방향으로만 바뀌는게 아니고 y축 z축으로 다 같이 바뀔텐데 편미분의 결과가 어떻게 x축 단위벡터인지 설명해주시면 감사하겠습니다 ㅠ

    • 1. r 은 위치'벡터'가 아니고 그냥 position 입니다. 3.1 부분을 읽어보세요.
      \(x_C\) 와 r 은 약간 다른의미로 쓰였습니다. 약간 헷갈리게 되어 있긴 하네요. \(r=(x,y,z)\) 라고 생각하시면, 이때 x 에 대한 편미분이 (1,0,0) 이 되는걸 아실 수 있을겁니다.

      2. position (x,y,z) 에 따라 다음과 같이 별하는 scalar field 를 생각해보세요.
      \[\Psi (\vec{x}) = x\]
      이 때 여기에 챕터9에서 설명된 Covariant Derivative \(\nabla_A\) 를 취하면 x 방향 단위 벡터 \(e_A^x\) 가 되는걸 알 수 있습니다.

      이건 나중에 나오는 내용이니 처음 이해할때는 그냥 \(r=(x,y,z)\) 를 x,y,z 에 대해 편미분 한다고 생각하세요. x 에 대한 편미분은 y,z 를 고정시키고 x 만 변화시킨다는 뜻입니다. 그림에 그러진 path 를 따라 하는 미분이 아닙니다.


티스토리 툴바