어떤 n개의 자유도를 가진 scalar 함수 G가 있고, 이 값을 극대화하고 싶다. 물론 그냥 극대화하고 싶다면 gradient가 0이 되는 지점을 찾으면 된다.

\text{To find the maximum of }G=G(x_1,\cdots,x_n)\\\text{Find }(\chi_1,\cdots,\chi_n) \text{ where } \nabla G=0

하지만 상황은 그리 녹녹치가 않다. 대부분의 경우 우리가 취할 수 있는 위치는 제한되어 있기 때문이다. 예를 들어서 어떤 함수 R=0을 항상 만족해야 한다거나 말이다.

\text{But }R=R(x_1,\cdots,x_n)\text{must satisfy the relation }R=0

계산이 좀 귀찮아졌다. 일단은 변수의 개수를 두개로 줄이자. 우선은 완전미분에 대해 생각해보자. 제한조건을 만족하는 상황대로 조금 움직인다면 R의 변화량은 항등적으로 0이어야 한다. 왜? 상수값이니 말이다.

\text{To handle the problem, let }n=2\\\text{The exact differential of }R \text{ becomes}\\dR=\frac{\partial R}{\partial x_1}dx_1+\frac{\partial R}{\partial x_2}dx_2\\\text{when infinitesimal movement does not violate the requirement;}\\dR=0

그리고 편미분량이 취해지는 위치에서 G가 극대/극소값을 취하고 있다면 dR=0를 만족하는 조건 하에서 dG또한 0이어야 한다. 왜냐하면 극대/극소이기 때문이다.

\text{When the function }G\text{ takes the extremum at the point}\\\text{The exact differential of }G \text{ also satisfies}\\dG=\frac{\partial G}{\partial x_1}dx_1+\frac{\partial G}{\partial x_2}dx_2=0\\\text{under the condition that }dR=0

그런데 dR=0이므로 두 자유도 중 하나는 다른 하나에 종속되게 되어 다음과 같이 이 방정식을 풀 수도 있다.

\frac{\partial R}{\partial x_1}dx_1+\frac{\partial R}{\partial x_2}dx_2=0\\\therefore dx_1=-\frac{\frac{\partial R}{\partial x_2}}{\frac{\partial R}{\partial x_1}}dx_2\\\therefore dG=\frac{\partial G}{\partial x_1}dx_1+\frac{\partial G}{\partial x_2}dx_2\\=\left[-\frac{\partial G}{\partial x_1}\frac{\frac{\partial R}{\partial x_2}}{\frac{\partial R}{\partial x_1}}+\frac{\partial G}{\partial x_2}\right]dx_2\\=0\\\text{However, we are free to choose } dx_2 \text{, which implies}\\-\frac{\partial G}{\partial x_1}\frac{\frac{\partial R}{\partial x_2}}{\frac{\partial R}{\partial x_1}}+\frac{\partial G}{\partial x_2}=0

하지만 다른 방법은 없을까? 상수 alpha를 도입해 보자.

dR=0, dG=0\\\therefore dR-\alpha dG\\=\left[\frac{\partial R}{\partial x_1}-\alpha\frac{\partial G}{\partial x_1}\right]dx_1\\+\left[\frac{\partial R}{\partial x_2}-\alpha\frac{\partial G}{\partial x_2}\right]dx_2\\=0

물론 첫번째 변수의 미소변화량은 아직 두번째 변수의 미소변화량에 종속되어 있다.

\text{However, as the restriction is still not removed,}\\\frac{\partial R}{\partial x_1}dx_1+\frac{\partial R}{\partial x_2}dx_2=0\\\therefore dx_1=-\frac{\frac{\partial R}{\partial x_2}}{\frac{\partial R}{\partial x_1}}dx_2

그러므로 우리는 아직 두번째 변수의 미소변화량을 마음대로 변화시킬 수 있다.

\text{Therefore under this restriction, we can freely choose }dx_2\\\frac{\partial R}{\partial x_1}dx_1+\frac{\partial R}{\partial x_2}dx_2=0

그런데 만약 상수 alpha를 잘 잡아서 다음 값이 0이 된다고 가정해보자.

\text{Assume we choose }\alpha\text{ so that}\\\frac{\partial R}{\partial x_1}-\alpha\frac{\partial G}{\partial x_1}=0\\\text{Then }dR-\alpha dG =0 \text{ reduces to}\\\left[\frac{\partial R}{\partial x_2}-\alpha\frac{\partial G}{\partial x_2}\right]dx_2=0\\\text{As we are free to choose }dx_2 \text{, we must conclude that}\\\frac{\partial R}{\partial x_2}-\alpha\frac{\partial G}{\partial x_2}\text{ must be zero as well}

라그랑주 승수법의 원리가 여기에 있다. 대략적인 논의는 여기까지. 변수 2개에서 n개로, 제한조건 1개에서 m개로의 확장은 안 해도 되겠지...

'Mathematics' 카테고리의 다른 글

개드립의 마지막 정리  (0) 2013.10.29
델타 분포 만들기  (6) 2012.08.23
Lagrange Multipliers - 라그랑주 승수법  (7) 2011.01.16
경계조건의 중요성 - Boundary condition  (2) 2010.08.21
Involute 곡선  (10) 2010.05.01
수학의 아름다움  (2) 2010.04.24

댓글을 달아 주세요

  1. Yeoni  댓글주소  수정/삭제  댓글쓰기

    저기.... 한국말로 이해못하겠어서 그런데 영어로 설명좀해주시면 안돼요?ㅠㅠ

    2013.11.12 15:00
    • Favicon of https://dexterstory.tistory.com BlogIcon 덱스터 2013.11.12 23:57 신고  댓글주소  수정/삭제

      어느 부분이 영어가 필요하신지요? 완전미분은 exact differential, 미소변화량은 infinitesimal change입니다.

      책이 필요하시다면 이 논의는 Reif 열역학 책의 부록에 있는 논의를 그대로 가져온 것이라고 말씀드립니다.

  2. 공돌이  댓글주소  수정/삭제  댓글쓰기

    질문 좀 해도 될까요?
    마지막에서 dx_2를 자유롭게 선택할 수 있다는 점에서 어떻게 '마지막 식이 0이 된다'는 결론을 이끌 수 있는 건가요?

    2013.12.05 00:20
    • Favicon of https://dexterstory.tistory.com BlogIcon 덱스터 2013.12.05 19:31 신고  댓글주소  수정/삭제

      '한 수 a에 임의의 수 b를 곱했을 때 항상 a*b=0 이라면 a는 0이어야 한다'라는 명제는 받아들이실 수 있으시죠?

      여기에 b를 dx_2로 보고 a를 그 앞의 항으로 보시면 됩니다.

  3. Favicon of https://kipid.tistory.com BlogIcon kipid  댓글주소  수정/삭제  댓글쓰기

    제가 정리한 Lagrange Multiplier Formalism (라그랑지 승수법, 최적화). Complex variable이 들어간 경우를 다룬것이긴한데.. 접근 방법은 약간은 다른.. 참고해 보세요.

    // 링크가 바껴서 수정.

    http://kipid.tistory.com/entry/Method-of-Lagrange-multipliers

    http://kipid.tistory.com/entry/Optimization-with-the-Method-of-Lagrange-multipliers

    2014.12.27 12:05 신고
  4. 질문드립니다  댓글주소  수정/삭제  댓글쓰기

    만약 상수 alpha를 잘 잡아서 다음 값이 0이 된다고 가정해보자.
    -> 이 문제 이외에도 g(x,x',t) 와 같은 형식의 식과 제약조건이 있을 때 alpha 를 분모가 0이 되는 등의 이유로 잘 잡을 수 없다면, lagrange multiplier method 를 사용 할 수 없다 라고 생각 하는게 맞는지 궁금하여 질문 드립니다.

    2017.02.20 11:59
    • Favicon of https://dexterstory.tistory.com BlogIcon 덱스터 2017.02.20 20:39 신고  댓글주소  수정/삭제

      제약조건을 만족하는 점들이 변곡점이거나(gradient가 사라지는 점들이 되겠죠) 매끄러운 곡면이 아니라면(제약조건이 min(G1,G2)와 같은 꼴로 주어지는 경우) 위와 같은 방식으로 계산했을 때 문제가 생길 수 있습니다. 이런 경우에는 'Lagrange multiplier를 사용할 수 없다'고 생각하기보다는 '문제를 잘 조정해서 Lagrange multiplier로 풀 수 있도록 만들어야 한다'로 보아야 합니다.

1 ··· 11 12 13 14 15 16 17 18 19 ··· 32 

글 보관함

카운터

Total : 654,442 / Today : 17 / Yesterday : 53
get rsstistory!