Notice
Recent Posts
Recent Comments
Link
관리 메뉴

뛰는 놈 위에 나는 공대생

[제어] 최적 제어 이론 본문

카테고리 없음

[제어] 최적 제어 이론

보통의공대생 2024. 2. 26. 18:23

 

 

Optimal control 을 다루는 많은 이론들이 있다.

 

크게 3가지 방법으로 나뉜다.

 

1. Variational approach
1-1. Euler-Lagrange equation
1-2. Pontryagin's maximum principle

2. Dynamic programming
2-1. Hamilton-Jacobi-Bellman equation
2-2. Reinforcement learning

3. Optimization-based control
3-1. Model predictive control

 

 

개별 방법마다 이론적 배경이 다르고 그 발전이 다르다. 각 방법마다 다루는 문제도 조금씩 다르기 때문이다.

 

시스템 동역학이 

$$\dot{x}=f(t,x,u)$$와 같이 주어질 때

 

$$J(t,x,u) = \phi(t_f, x_f,u_f) + \int_{t_0}^{t_f} L(t,x,u) dt $$

$$J(t,x,u) = \int_{t_0}^{\infty} l(t,x,u) dt $$

 

로 정의된 performance index를 최소화하는 최적 제어 입력 $u^*=\pi(t,x)$를 구하는 문제가 된다.

performance index의 형태에 따라 다른 이름으로 불리기도 하지만 대체로 이렇다. (자세한 내용은 다음 글에 있다.)

 

위의 formulation은 아주 일반화한 것이고 실제로는 해석적인 해를 구하기 위해 더 간소화된 동역학을 사용한다.

또한 최적 제어를 계산하는 시간에 따라서

  • Infinite horizon optimal control problem
  • Finite horizon optimal control problem
  • Receding horizon

으로 나뉘게 된다. Receding horizon optimal control의 경우에는 finite horizon 문제를 풀고 이를 infinite 시간 동안 적용하는 방식이기 때문에 horizon이 뒤로 간다는 것으로 이해할 수도 있다.

 

개별 주제마다 방대한 내용을 다룰 수 있기 때문에 하나씩 흩어져서 정리하게 될 것 같다.

Comments