'미적분학'에 해당되는 글 2건

  1. 2011.01.16 Lagrange Multipliers - 라그랑주 승수법 (7)
  2. 2010.02.24 야코비 행렬(Jacobian matrix) (12)
어떤 n개의 자유도를 가진 scalar 함수 G가 있고, 이 값을 극대화하고 싶다. 물론 그냥 극대화하고 싶다면 gradient가 0이 되는 지점을 찾으면 된다.

\text{To find the maximum of }G=G(x_1,\cdots,x_n)\\\text{Find }(\chi_1,\cdots,\chi_n) \text{ where } \nabla G=0

하지만 상황은 그리 녹녹치가 않다. 대부분의 경우 우리가 취할 수 있는 위치는 제한되어 있기 때문이다. 예를 들어서 어떤 함수 R=0을 항상 만족해야 한다거나 말이다.

\text{But }R=R(x_1,\cdots,x_n)\text{must satisfy the relation }R=0

계산이 좀 귀찮아졌다. 일단은 변수의 개수를 두개로 줄이자. 우선은 완전미분에 대해 생각해보자. 제한조건을 만족하는 상황대로 조금 움직인다면 R의 변화량은 항등적으로 0이어야 한다. 왜? 상수값이니 말이다.

\text{To handle the problem, let }n=2\\\text{The exact differential of }R \text{ becomes}\\dR=\frac{\partial R}{\partial x_1}dx_1+\frac{\partial R}{\partial x_2}dx_2\\\text{when infinitesimal movement does not violate the requirement;}\\dR=0

그리고 편미분량이 취해지는 위치에서 G가 극대/극소값을 취하고 있다면 dR=0를 만족하는 조건 하에서 dG또한 0이어야 한다. 왜냐하면 극대/극소이기 때문이다.

\text{When the function }G\text{ takes the extremum at the point}\\\text{The exact differential of }G \text{ also satisfies}\\dG=\frac{\partial G}{\partial x_1}dx_1+\frac{\partial G}{\partial x_2}dx_2=0\\\text{under the condition that }dR=0

그런데 dR=0이므로 두 자유도 중 하나는 다른 하나에 종속되게 되어 다음과 같이 이 방정식을 풀 수도 있다.

\frac{\partial R}{\partial x_1}dx_1+\frac{\partial R}{\partial x_2}dx_2=0\\\therefore dx_1=-\frac{\frac{\partial R}{\partial x_2}}{\frac{\partial R}{\partial x_1}}dx_2\\\therefore dG=\frac{\partial G}{\partial x_1}dx_1+\frac{\partial G}{\partial x_2}dx_2\\=\left[-\frac{\partial G}{\partial x_1}\frac{\frac{\partial R}{\partial x_2}}{\frac{\partial R}{\partial x_1}}+\frac{\partial G}{\partial x_2}\right]dx_2\\=0\\\text{However, we are free to choose } dx_2 \text{, which implies}\\-\frac{\partial G}{\partial x_1}\frac{\frac{\partial R}{\partial x_2}}{\frac{\partial R}{\partial x_1}}+\frac{\partial G}{\partial x_2}=0

하지만 다른 방법은 없을까? 상수 alpha를 도입해 보자.

dR=0, dG=0\\\therefore dR-\alpha dG\\=\left[\frac{\partial R}{\partial x_1}-\alpha\frac{\partial G}{\partial x_1}\right]dx_1\\+\left[\frac{\partial R}{\partial x_2}-\alpha\frac{\partial G}{\partial x_2}\right]dx_2\\=0

물론 첫번째 변수의 미소변화량은 아직 두번째 변수의 미소변화량에 종속되어 있다.

\text{However, as the restriction is still not removed,}\\\frac{\partial R}{\partial x_1}dx_1+\frac{\partial R}{\partial x_2}dx_2=0\\\therefore dx_1=-\frac{\frac{\partial R}{\partial x_2}}{\frac{\partial R}{\partial x_1}}dx_2

그러므로 우리는 아직 두번째 변수의 미소변화량을 마음대로 변화시킬 수 있다.

\text{Therefore under this restriction, we can freely choose }dx_2\\\frac{\partial R}{\partial x_1}dx_1+\frac{\partial R}{\partial x_2}dx_2=0

그런데 만약 상수 alpha를 잘 잡아서 다음 값이 0이 된다고 가정해보자.

\text{Assume we choose }\alpha\text{ so that}\\\frac{\partial R}{\partial x_1}-\alpha\frac{\partial G}{\partial x_1}=0\\\text{Then }dR-\alpha dG =0 \text{ reduces to}\\\left[\frac{\partial R}{\partial x_2}-\alpha\frac{\partial G}{\partial x_2}\right]dx_2=0\\\text{As we are free to choose }dx_2 \text{, we must conclude that}\\\frac{\partial R}{\partial x_2}-\alpha\frac{\partial G}{\partial x_2}\text{ must be zero as well}

라그랑주 승수법의 원리가 여기에 있다. 대략적인 논의는 여기까지. 변수 2개에서 n개로, 제한조건 1개에서 m개로의 확장은 안 해도 되겠지...

'Mathematics' 카테고리의 다른 글

개드립의 마지막 정리  (0) 2013.10.29
델타 분포 만들기  (6) 2012.08.23
Lagrange Multipliers - 라그랑주 승수법  (7) 2011.01.16
경계조건의 중요성 - Boundary condition  (2) 2010.08.21
Involute 곡선  (10) 2010.05.01
수학의 아름다움  (2) 2010.04.24

댓글을 달아 주세요

  1. Yeoni  댓글주소  수정/삭제  댓글쓰기

    저기.... 한국말로 이해못하겠어서 그런데 영어로 설명좀해주시면 안돼요?ㅠㅠ

    2013.11.12 15:00
    • Favicon of https://dexterstory.tistory.com BlogIcon 덱스터 2013.11.12 23:57 신고  댓글주소  수정/삭제

      어느 부분이 영어가 필요하신지요? 완전미분은 exact differential, 미소변화량은 infinitesimal change입니다.

      책이 필요하시다면 이 논의는 Reif 열역학 책의 부록에 있는 논의를 그대로 가져온 것이라고 말씀드립니다.

  2. 공돌이  댓글주소  수정/삭제  댓글쓰기

    질문 좀 해도 될까요?
    마지막에서 dx_2를 자유롭게 선택할 수 있다는 점에서 어떻게 '마지막 식이 0이 된다'는 결론을 이끌 수 있는 건가요?

    2013.12.05 00:20
    • Favicon of https://dexterstory.tistory.com BlogIcon 덱스터 2013.12.05 19:31 신고  댓글주소  수정/삭제

      '한 수 a에 임의의 수 b를 곱했을 때 항상 a*b=0 이라면 a는 0이어야 한다'라는 명제는 받아들이실 수 있으시죠?

      여기에 b를 dx_2로 보고 a를 그 앞의 항으로 보시면 됩니다.

  3. Favicon of https://kipid.tistory.com BlogIcon kipid  댓글주소  수정/삭제  댓글쓰기

    제가 정리한 Lagrange Multiplier Formalism (라그랑지 승수법, 최적화). Complex variable이 들어간 경우를 다룬것이긴한데.. 접근 방법은 약간은 다른.. 참고해 보세요.

    // 링크가 바껴서 수정.

    http://kipid.tistory.com/entry/Method-of-Lagrange-multipliers

    http://kipid.tistory.com/entry/Optimization-with-the-Method-of-Lagrange-multipliers

    2014.12.27 12:05 신고
  4. 질문드립니다  댓글주소  수정/삭제  댓글쓰기

    만약 상수 alpha를 잘 잡아서 다음 값이 0이 된다고 가정해보자.
    -> 이 문제 이외에도 g(x,x',t) 와 같은 형식의 식과 제약조건이 있을 때 alpha 를 분모가 0이 되는 등의 이유로 잘 잡을 수 없다면, lagrange multiplier method 를 사용 할 수 없다 라고 생각 하는게 맞는지 궁금하여 질문 드립니다.

    2017.02.20 11:59
    • Favicon of https://dexterstory.tistory.com BlogIcon 덱스터 2017.02.20 20:39 신고  댓글주소  수정/삭제

      제약조건을 만족하는 점들이 변곡점이거나(gradient가 사라지는 점들이 되겠죠) 매끄러운 곡면이 아니라면(제약조건이 min(G1,G2)와 같은 꼴로 주어지는 경우) 위와 같은 방식으로 계산했을 때 문제가 생길 수 있습니다. 이런 경우에는 'Lagrange multiplier를 사용할 수 없다'고 생각하기보다는 '문제를 잘 조정해서 Lagrange multiplier로 풀 수 있도록 만들어야 한다'로 보아야 합니다.

처음 야코비 행렬을 보았을 때는 아마도 신입생 시절이었을 것이다.(기껏해야 재작년이지만) 야코비 행렬의 정의는 wikipedia 항목을 뒤져보면 쉽게 찾을 수 있다.

J=\begin{bmatrix} \dfrac{\partial y_1}{\partial x_1} & \cdots & \dfrac{\partial y_1}{\partial x_n} \\ \vdots & \ddots & \vdots \\ \dfrac{\partial y_m}{\partial x_1} & \cdots & \dfrac{\partial y_m}{\partial x_n}  \end{bmatrix}.
위 링크에서는 n차원 유클리드 공간에서 m차원 유클리드 공간으로 보내는 사상 F에 대해서 정의되는 값이라고 되어있다. 다른 말로 하자면 n개의 x 성분이 있는 공간에서 정의된 m개의 y 성분이 있는 벡터장(vector field) F의 기울기(gradient)라고도 할 수 있다. 먼저 기울기의 성격을 잘 생각해보자.
 
d\psi=\nabla\psi\cdot d\bold r

위 식은 장을 측정하는 위치가 조금 변했을 때 장의 크기가 변하는 정도는 그 위치변화(변위)와 장의 기울기의 내적과 같다는 것을 말해주고 있다. 벡터장의 경우 동일한 결론을 얻게 되는데, 물론 벡터를 열벡터로 쓰는 것에 동의한 경우이다.[각주:1] 야코비 행렬을 J라고 쓰면 미소변위 dr만큼 움직였을 때 벡터장 F의 변화 dF는 다음과 같다.

d\bold F=\bold Jd\bold r

의문이 생기면 직접 확인해 보도록. 벡터의 각 성분을 스칼라함수로 본 상태에서 기울기를 구해 행벡터로 나열하고, 여기에 뒤쪽의 미소변위 벡터를 곱하면 각 항목마다 내적을 취하게 되어서 그렇다.[각주:2]

이 행렬의 행렬식(determinant)은 상당히 자주 이용된다. 물론 행렬식을 이용하려면 사상이 같은 차원의 공간을 이어주어야 한다. 대표적인 예는 구면좌표계를 직교좌표계로 바꾸는 경우가 있다. wikipedia의 동일 항목에 나온 예이긴 하지만,[각주:3] 이보다 적절한 예는 없다고 생각해서 이 예를 쓰도록 하겠다.

 x_1 = r\, \sin\theta\, \cos\phi \,
 x_2 = r\, \sin\theta\, \sin\phi \,
 x_3 = r\, \cos\theta. \,

이 경우의 야코비 행렬은

J_F(r,\theta,\phi) =\begin{bmatrix}
\dfrac{\partial x_1}{\partial r} & \dfrac{\partial x_1}{\partial \theta} & \dfrac{\partial x_1}{\partial \phi} \\[3pt]
\dfrac{\partial x_2}{\partial r} & \dfrac{\partial x_2}{\partial \theta} & \dfrac{\partial x_2}{\partial \phi} \\[3pt]
\dfrac{\partial x_3}{\partial r} & \dfrac{\partial x_3}{\partial \theta} & \dfrac{\partial x_3}{\partial \phi} \\
\end{bmatrix}=\begin{bmatrix} 
	\sin\theta\, \cos\phi &  r\, \cos\theta\, \cos\phi  & -r\, \sin\theta\, \sin\phi \\
	\sin\theta\, \sin\phi &  r\, \cos\theta\, \sin\phi  &  r\, \sin\theta\, \cos\phi \\ 
	\cos\theta            &  -r\, \sin\theta             &             0                               
\end{bmatrix}.

이 된다. 위 링크를 따라가보면 알겠지만 야코비 행렬식은 미소부피가 얼마나 팽창하는지 알려주는 계수가 된다. 위의 경우에서 행렬식을 구하면 r^2 sin θ가 되는데, 구면좌표계를 공부한 사람들은 알다시피 dx dy dz = r^2 sin θ dr dθ dφ 이다. 왜 그런지는 이렇게 보일 수 있다. 편의상 야코비 행렬이 다음과 같은 모습이라고 하자.

J_F=\left(\begin{array}{ccc} a&b&c\\d&e&f\\g&h&i \end{array}\right)

이제는 다음 방정식이 성립한다.

d\bold x=J_Fd\bold y

아까의 예제대로라면 x는 데카르트 좌표계, y는 구면좌표계의 미소변화이다. 위 식을 풀어쓰면 다음과 같은 세 방정식이 된다.

dx_1=a~dy_1+b~dy_2+c~dy_3\\ dx_2=d~dy_1+e~dy_2+f~dy_3\\ dx_3=g~dy_1+h~dy_2+i~dy_3

이제 미소부피를 구할 차례이다. 그런데 애석하게도, 미소부피는 저 세 값을 단순히 곱한다고 얻어지는게 아니다. 잘 생각해보면 각 항목은 하나의 벡터이다. 따라서 단위벡터를 ^를 씌워 나타낸다면 위 방정식은 정확히는 이런 방정식이 된다.

dx_1\hat{x_1}=a~dy_1\hat{y_1}+b~dy_2\hat{y_2}+c~dy_3\hat{y_3}\\ dx_2\hat{x_2}=d~dy_1\hat{y_1}+e~dy_2\hat{y_2}+f~dy_3\hat{y_3}\\ dx_3\hat{x_3}=g~dy_1\hat{y_1}+h~dy_2\hat{y_2}+i~dy_3\hat{y_3}

그리고 미소부피를 정확히 나타내려면 위 세 벡터를 스칼라곱 해주어야 한다. 더 높은 차원에서는 쐐기곱을 해주어야 하는데, 아직은 필요없으니 무시하자. 더 알고 싶은 사람은 여기를 확인하고, 여기서는 계속 나아가도록 하겠다. 이제 미소부피 dV는 다음과 같이 쓸 수 있다.

dV=(dx_1\hat{x_1})\cdot( dx_2\hat{x_2})\times (dx_3\hat{x_3})

삼중곱을 간단히 나타내는 방법을 우리는 아주 잘 알고있다. 행렬식을 이용하는 것. y를 사용하는 공간도 유클리드 공간이기 때문에 각 벡터를 성분으로만 써주면 이렇게 된다.

\bold{dx_1}=(a~dy_1,b~dy_2,c~dy_3)\\ \bold{dx_2}=(d~dy_1,e~dy_2,f~dy_3)\\ \bold{dx_3}=(g~dy_1,h~dy_2,i~dy_3)

이제 삼중곱.

dV=(dx_1\hat{x_1})\cdot( dx_2\hat{x_2})\times (dx_3\hat{x_3})~~~~~~~~~~\\=\left|\begin{array}{ccc} a~dy_1&b~dy_2&c~dy_3\\d~dy_1&e~dy_2&f~dy_3\\g~dy_1&h~dy_2&i~dy_3 \end{array}\right|\hat{y_1}\cdot\hat{y_2}\times\hat{y_3}

행렬식의 성질때문에 같은 열에 곱해진 숫자는 앞으로 튀어나올 수 있다. dy_1등을 행렬에서 제거해주자.

dV=(dx_1\hat{x_1})\cdot( dx_2\hat{x_2})\times (dx_3\hat{x_3})~~~~~~~~~~\\=\left|\begin{array}{ccc} a~dy_1&b~dy_2&c~dy_3\\d~dy_1&e~dy_2&f~dy_3\\g~dy_1&h~dy_2&i~dy_3 \end{array}\right|\hat{y_1}\cdot\hat{y_2}\times\hat{y_3} \\=\left|\begin{array}{ccc} a&b&c\\d&e&f\\g&h&i \end{array}\right|dy_1~dy_2~dy_3~\hat{y_1}\cdot\hat{y_2}\times\hat{y_3}

이제 사실상 의미없는 삼중곱을 지워주면 우리가 그토록 애타게 원하던 결과가 나온다.

dV=dx_1~dx_2~dx_3=\left|\begin{array}{ccc} a&b&c\\d&e&f\\g&h&i \end{array}\right|dy_1~dy_2~dy_3



강의를 듣던 당시에는 '오 신기하네' 정도로 생각하고 넘어갔는데 돌이켜보니 나름대로의 논리가 스며들어 있었던 결과물중 하나이다. 설명을 다시 짚어보지 않아서 제대로 설명했는지는 모르겠다.
  1. 행렬이 참으로 놀랍지 않을 수 없다. 얜 어디를 가더라도 등장해 -_- [본문으로]
  2. 행 별로 보는게 이해가 빠를 것이다. 각 행은 그 성분의 gradient라는 점에 주의. [본문으로]
  3. 대상은 조금 다르지만 상관없다. [본문으로]

'Mathematics' 카테고리의 다른 글

무한대와 무한대가 만났을 때  (4) 2010.04.13
Power Set에 대한 잡담  (10) 2010.03.15
야코비 행렬(Jacobian matrix)  (12) 2010.02.24
선형대수와 행렬  (0) 2010.02.04
루빅스로 배우는 군론  (0) 2010.01.27
무한대의 비교: 자연수와 실수  (0) 2010.01.13

댓글을 달아 주세요

  1. Favicon of http://blog.naver.com/dwhuh2002 BlogIcon Joe군  댓글주소  수정/삭제  댓글쓰기

    얽 현 나이 중3
    이해X

    2010.06.27 01:06
  2.  댓글주소  수정/삭제  댓글쓰기

    비밀댓글입니다

    2011.02.20 12:44
  3. Favicon of http://GMLWND3011@NATE.COM BlogIcon AJ  댓글주소  수정/삭제  댓글쓰기

    어렵네요

    2011.02.20 12:44
  4. 엄태민  댓글주소  수정/삭제  댓글쓰기

    엑박이 좀 많은데 수정하실생각은 없으신지..

    2011.04.10 23:31
  5. Favicon of http://ckdwo0605.blog.me BlogIcon Heterotic-E  댓글주소  수정/삭제  댓글쓰기

    해석학공부중에 야코비안이 참임을 증명하기는 했지만 어떻게 도입되었는지에 대해서는 언급이 없어서 찾아보다가 이 글을 보게 되었네요. 좋은 글 잘보고갑니다. 아직 궁금증은 다 채워지지 않았지만요...

    2012.04.14 18:56
  6. 공대3학년  댓글주소  수정/삭제  댓글쓰기

    큐... 봐도모르겠네 대학공부 헛했네 ㅠㅜ

    2012.11.04 22:09
  7. ㅇㅇㅇㄴ  댓글주소  수정/삭제  댓글쓰기

    저기요, 위에 dx1 dx2 dx3 스칼라 값에서 벡터 값으로 넘어가는데 어떤 연산을 한건가요? 왠지 그러할 것이다- 하고 넘어가는 것 같아서 조금 찝찝해요 ㅠㅠ

    2015.10.09 07:15
  8.  댓글주소  수정/삭제  댓글쓰기

    네 저기 위에 벡터표시를 얹어주는 과정이 틀렸는데요?

    2017.07.02 14:43

1 

글 보관함

카운터

Total : 650,427 / Today : 112 / Yesterday : 42
get rsstistory!