'미적분학'에 해당되는 글 2건

  1. 2011.01.16 Lagrange Multipliers - 라그랑주 승수법 7
  2. 2010.02.24 야코비 행렬(Jacobian matrix) 12
어떤 n개의 자유도를 가진 scalar 함수 G가 있고, 이 값을 극대화하고 싶다. 물론 그냥 극대화하고 싶다면 gradient가 0이 되는 지점을 찾으면 된다.

\text{To find the maximum of }G=G(x_1,\cdots,x_n)\\\text{Find }(\chi_1,\cdots,\chi_n) \text{ where } \nabla G=0

하지만 상황은 그리 녹녹치가 않다. 대부분의 경우 우리가 취할 수 있는 위치는 제한되어 있기 때문이다. 예를 들어서 어떤 함수 R=0을 항상 만족해야 한다거나 말이다.

\text{But }R=R(x_1,\cdots,x_n)\text{must satisfy the relation }R=0

계산이 좀 귀찮아졌다. 일단은 변수의 개수를 두개로 줄이자. 우선은 완전미분에 대해 생각해보자. 제한조건을 만족하는 상황대로 조금 움직인다면 R의 변화량은 항등적으로 0이어야 한다. 왜? 상수값이니 말이다.

\text{To handle the problem, let }n=2\\\text{The exact differential of }R \text{ becomes}\\dR=\frac{\partial R}{\partial x_1}dx_1+\frac{\partial R}{\partial x_2}dx_2\\\text{when infinitesimal movement does not violate the requirement;}\\dR=0

그리고 편미분량이 취해지는 위치에서 G가 극대/극소값을 취하고 있다면 dR=0를 만족하는 조건 하에서 dG또한 0이어야 한다. 왜냐하면 극대/극소이기 때문이다.

\text{When the function }G\text{ takes the extremum at the point}\\\text{The exact differential of }G \text{ also satisfies}\\dG=\frac{\partial G}{\partial x_1}dx_1+\frac{\partial G}{\partial x_2}dx_2=0\\\text{under the condition that }dR=0

그런데 dR=0이므로 두 자유도 중 하나는 다른 하나에 종속되게 되어 다음과 같이 이 방정식을 풀 수도 있다.

\frac{\partial R}{\partial x_1}dx_1+\frac{\partial R}{\partial x_2}dx_2=0\\\therefore dx_1=-\frac{\frac{\partial R}{\partial x_2}}{\frac{\partial R}{\partial x_1}}dx_2\\\therefore dG=\frac{\partial G}{\partial x_1}dx_1+\frac{\partial G}{\partial x_2}dx_2\\=\left[-\frac{\partial G}{\partial x_1}\frac{\frac{\partial R}{\partial x_2}}{\frac{\partial R}{\partial x_1}}+\frac{\partial G}{\partial x_2}\right]dx_2\\=0\\\text{However, we are free to choose } dx_2 \text{, which implies}\\-\frac{\partial G}{\partial x_1}\frac{\frac{\partial R}{\partial x_2}}{\frac{\partial R}{\partial x_1}}+\frac{\partial G}{\partial x_2}=0

하지만 다른 방법은 없을까? 상수 alpha를 도입해 보자.

dR=0, dG=0\\\therefore dR-\alpha dG\\=\left[\frac{\partial R}{\partial x_1}-\alpha\frac{\partial G}{\partial x_1}\right]dx_1\\+\left[\frac{\partial R}{\partial x_2}-\alpha\frac{\partial G}{\partial x_2}\right]dx_2\\=0

물론 첫번째 변수의 미소변화량은 아직 두번째 변수의 미소변화량에 종속되어 있다.

\text{However, as the restriction is still not removed,}\\\frac{\partial R}{\partial x_1}dx_1+\frac{\partial R}{\partial x_2}dx_2=0\\\therefore dx_1=-\frac{\frac{\partial R}{\partial x_2}}{\frac{\partial R}{\partial x_1}}dx_2

그러므로 우리는 아직 두번째 변수의 미소변화량을 마음대로 변화시킬 수 있다.

\text{Therefore under this restriction, we can freely choose }dx_2\\\frac{\partial R}{\partial x_1}dx_1+\frac{\partial R}{\partial x_2}dx_2=0

그런데 만약 상수 alpha를 잘 잡아서 다음 값이 0이 된다고 가정해보자.

\text{Assume we choose }\alpha\text{ so that}\\\frac{\partial R}{\partial x_1}-\alpha\frac{\partial G}{\partial x_1}=0\\\text{Then }dR-\alpha dG =0 \text{ reduces to}\\\left[\frac{\partial R}{\partial x_2}-\alpha\frac{\partial G}{\partial x_2}\right]dx_2=0\\\text{As we are free to choose }dx_2 \text{, we must conclude that}\\\frac{\partial R}{\partial x_2}-\alpha\frac{\partial G}{\partial x_2}\text{ must be zero as well}

라그랑주 승수법의 원리가 여기에 있다. 대략적인 논의는 여기까지. 변수 2개에서 n개로, 제한조건 1개에서 m개로의 확장은 안 해도 되겠지...

'Mathematics' 카테고리의 다른 글

개드립의 마지막 정리  (0) 2013.10.29
델타 분포 만들기  (6) 2012.08.23
경계조건의 중요성 - Boundary condition  (2) 2010.08.21
Involute 곡선  (10) 2010.05.01
수학의 아름다움  (2) 2010.04.24
Posted by 덱스터
처음 야코비 행렬을 보았을 때는 아마도 신입생 시절이었을 것이다.(기껏해야 재작년이지만) 야코비 행렬의 정의는 wikipedia 항목을 뒤져보면 쉽게 찾을 수 있다.

J=\begin{bmatrix} \dfrac{\partial y_1}{\partial x_1} & \cdots & \dfrac{\partial y_1}{\partial x_n} \\ \vdots & \ddots & \vdots \\ \dfrac{\partial y_m}{\partial x_1} & \cdots & \dfrac{\partial y_m}{\partial x_n}  \end{bmatrix}.
위 링크에서는 n차원 유클리드 공간에서 m차원 유클리드 공간으로 보내는 사상 F에 대해서 정의되는 값이라고 되어있다. 다른 말로 하자면 n개의 x 성분이 있는 공간에서 정의된 m개의 y 성분이 있는 벡터장(vector field) F의 기울기(gradient)라고도 할 수 있다. 먼저 기울기의 성격을 잘 생각해보자.
 
$$d\psi=\nabla\psi\cdot d\mathbf r$$

위 식은 장을 측정하는 위치가 조금 변했을 때 장의 크기가 변하는 정도는 그 위치변화(변위)와 장의 기울기의 내적과 같다는 것을 말해주고 있다. 벡터장의 경우 동일한 결론을 얻게 되는데, 물론 벡터를 열벡터로 쓰는 것에 동의한 경우이다.[각주:1] 야코비 행렬을 J라고 쓰면 미소변위 dr만큼 움직였을 때 벡터장 F의 변화 dF는 다음과 같다.

$$d\mathbf F=\mathbf Jd\mathbf r$$

의문이 생기면 직접 확인해 보도록. 벡터의 각 성분을 스칼라함수로 본 상태에서 기울기를 구해 행벡터로 나열하고, 여기에 뒤쪽의 미소변위 벡터를 곱하면 각 항목마다 내적을 취하게 되어서 그렇다.[각주:2]

이 행렬의 행렬식(determinant)은 상당히 자주 이용된다. 물론 행렬식을 이용하려면 사상이 같은 차원의 공간을 이어주어야 한다. 대표적인 예는 구면좌표계를 직교좌표계로 바꾸는 경우가 있다. wikipedia의 동일 항목에 나온 예이긴 하지만,[각주:3] 이보다 적절한 예는 없다고 생각해서 이 예를 쓰도록 하겠다.

 x_1 = r\, \sin\theta\, \cos\phi \,
 x_2 = r\, \sin\theta\, \sin\phi \,
 x_3 = r\, \cos\theta. \,

이 경우의 야코비 행렬은

J_F(r,\theta,\phi) =\begin{bmatrix}
\dfrac{\partial x_1}{\partial r} & \dfrac{\partial x_1}{\partial \theta} & \dfrac{\partial x_1}{\partial \phi} \\[3pt]
\dfrac{\partial x_2}{\partial r} & \dfrac{\partial x_2}{\partial \theta} & \dfrac{\partial x_2}{\partial \phi} \\[3pt]
\dfrac{\partial x_3}{\partial r} & \dfrac{\partial x_3}{\partial \theta} & \dfrac{\partial x_3}{\partial \phi} \\
\end{bmatrix}=\begin{bmatrix} 
	\sin\theta\, \cos\phi &  r\, \cos\theta\, \cos\phi  & -r\, \sin\theta\, \sin\phi \\
	\sin\theta\, \sin\phi &  r\, \cos\theta\, \sin\phi  &  r\, \sin\theta\, \cos\phi \\ 
	\cos\theta            &  -r\, \sin\theta             &             0                               
\end{bmatrix}.

이 된다. 위 링크를 따라가보면 알겠지만 야코비 행렬식은 미소부피가 얼마나 팽창하는지 알려주는 계수가 된다. 위의 경우에서 행렬식을 구하면 r^2 sin θ가 되는데, 구면좌표계를 공부한 사람들은 알다시피 dx dy dz = r^2 sin θ dr dθ dφ 이다. 왜 그런지는 이렇게 보일 수 있다. 편의상 야코비 행렬이 다음과 같은 모습이라고 하자.

$$J_F=\left(\begin{array}{ccc} a&b&c\\d&e&f\\g&h&i \end{array}\right) $$

이제는 다음 방정식이 성립한다.

$$d\mathbf x=J_Fd\mathbf y $$

아까의 예제대로라면 x는 데카르트 좌표계, y는 구면좌표계의 미소변화이다. 위 식을 풀어쓰면 다음과 같은 세 방정식이 된다.

$$dx_1=a~dy_1+b~dy_2+c~dy_3\\ dx_2=d~dy_1+e~dy_2+f~dy_3\\ dx_3=g~dy_1+h~dy_2+i~dy_3$$

이제 미소부피를 구할 차례이다. 그런데 애석하게도, 미소부피는 저 세 값을 단순히 곱한다고 얻어지는게 아니다. 잘 생각해보면 각 항목은 하나의 벡터이다. 따라서 단위벡터를 ^를 씌워 나타낸다면 위 방정식은 정확히는 이런 방정식이 된다.

$$dx_1\hat{x_1}=a~dy_1\hat{y_1}+b~dy_2\hat{y_2}+c~dy_3\hat{y_3}\\ dx_2\hat{x_2}=d~dy_1\hat{y_1}+e~dy_2\hat{y_2}+f~dy_3\hat{y_3}\\ dx_3\hat{x_3}=g~dy_1\hat{y_1}+h~dy_2\hat{y_2}+i~dy_3\hat{y_3} $$

그리고 미소부피를 정확히 나타내려면 위 세 벡터를 스칼라곱 해주어야 한다. 더 높은 차원에서는 쐐기곱을 해주어야 하는데, 아직은 필요없으니 무시하자. 더 알고 싶은 사람은 여기를 확인하고, 여기서는 계속 나아가도록 하겠다. 이제 미소부피 dV는 다음과 같이 쓸 수 있다.

$$dV=(dx_1\hat{x_1})\cdot( dx_2\hat{x_2})\times (dx_3\hat{x_3})$$

삼중곱을 간단히 나타내는 방법을 우리는 아주 잘 알고있다. 행렬식을 이용하는 것. y를 사용하는 공간도 유클리드 공간이기 때문에 각 벡터를 성분으로만 써주면 이렇게 된다.

$$\mathbf{dx_1}=(a~dy_1,b~dy_2,c~dy_3)\\ \mathbf{dx_2}=(d~dy_1,e~dy_2,f~dy_3)\\ \mathbf{dx_3}=(g~dy_1,h~dy_2,i~dy_3) $$

이제 삼중곱.

$$dV=(dx_1\hat{x_1})\cdot( dx_2\hat{x_2})\times (dx_3\hat{x_3})~~~~~~~~~~\\=\left|\begin{array}{ccc} a~dy_1&b~dy_2&c~dy_3\\d~dy_1&e~dy_2&f~dy_3\\g~dy_1&h~dy_2&i~dy_3 \end{array}\right|\hat{y_1}\cdot\hat{y_2}\times\hat{y_3} $$

행렬식의 성질때문에 같은 열에 곱해진 숫자는 앞으로 튀어나올 수 있다. dy_1등을 행렬에서 제거해주자.

$$dV=(dx_1\hat{x_1})\cdot( dx_2\hat{x_2})\times (dx_3\hat{x_3})~~~~~~~~~~\\=\left|\begin{array}{ccc} a~dy_1&b~dy_2&c~dy_3\\d~dy_1&e~dy_2&f~dy_3\\g~dy_1&h~dy_2&i~dy_3 \end{array}\right|\hat{y_1}\cdot\hat{y_2}\times\hat{y_3} \\=\left|\begin{array}{ccc} a&b&c\\d&e&f\\g&h&i \end{array}\right|dy_1~dy_2~dy_3~\hat{y_1}\cdot\hat{y_2}\times\hat{y_3} $$

이제 사실상 의미없는 삼중곱을 지워주면 우리가 그토록 애타게 원하던 결과가 나온다.

$$dV=dx_1~dx_2~dx_3=\left|\begin{array}{ccc} a&b&c\\d&e&f\\g&h&i \end{array}\right|dy_1~dy_2~dy_3 $$



강의를 듣던 당시에는 '오 신기하네' 정도로 생각하고 넘어갔는데 돌이켜보니 나름대로의 논리가 스며들어 있었던 결과물중 하나이다. 설명을 다시 짚어보지 않아서 제대로 설명했는지는 모르겠다.
  1. 행렬이 참으로 놀랍지 않을 수 없다. 얜 어디를 가더라도 등장해 -_- [본문으로]
  2. 행 별로 보는게 이해가 빠를 것이다. 각 행은 그 성분의 gradient라는 점에 주의. [본문으로]
  3. 대상은 조금 다르지만 상관없다. [본문으로]

'Mathematics' 카테고리의 다른 글

무한대와 무한대가 만났을 때  (4) 2010.04.13
Power Set에 대한 잡담  (10) 2010.03.15
선형대수와 행렬  (0) 2010.02.04
루빅스로 배우는 군론  (0) 2010.01.27
무한대의 비교: 자연수와 실수  (0) 2010.01.13
Posted by 덱스터
이전버튼 1 이전버튼

블로그 이미지
A theorist takes on the world
덱스터
Yesterday
Today
Total

달력

 « |  » 2024.11
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30

최근에 올라온 글

최근에 달린 댓글

글 보관함