일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 수식삽입
- Zotero
- 수치해석
- 논문작성법
- Numerical Analysis
- 옵시디언
- IEEE
- 고체역학
- Dear abby
- 텝스공부
- teps
- LaTeX
- WOX
- Linear algebra
- 텝스
- 딥러닝
- Python
- MATLAB
- 인공지능
- ChatGPT
- matplotlib
- 생산성
- 논문작성
- pytorch
- 우분투
- JAX
- Statics
- Julia
- 에러기록
- obsidian
- Today
- Total
뛰는 놈 위에 나는 공대생
[응용선형대수] 역행렬 구하기 본문
역행렬을 구할 수 있는 방법에 대해서 정리합니다.
물론 2x2 matrix나 3x3 matrix까지는 이미 공식으로도 나와 있어서 굳이 여기서 설명하는 방법을 사용하지는 않아도 되지만 기억해두면 좋을 것 같습니다.
1. Three row operations
그 전에 gaussian elimination에 대해서 공부를 했었습니다. 자세한 내용은 아래 링크를 참고해주세요.
normal-engineer.tistory.com/60?category=964340
matrix에서 할 수 있는 row operations에는 3가지 종류가 있습니다.
1) $r_{i} \leftarrow cr_{i}$
2) $r_{i} \leftrightharpoons r_{j}$
3) $r_{i} \leftarrow r_{i}+cr_{j}$
이 operation을 matrix의 곱으로 표현할 수 있습니다.
각 operation matrix를 $E$라고 표현하겠습니다.
어떤 matrix 앞에 operation matrix $E$를 곱함으로써 operation을 수행할 수 있습니다.
주의해야할 점은, operation matrix를 뒤에 곱하면 안됩니다. 뒤에 곱하는 순간 row가 아닌 column에 대한 operation으로 작용합니다. 왜 그런지 궁금하시다면 직접 계산해보셔도 됩니다.
예를 들어, 위 그림에서 마지막 operation에 대해 뒤에 곱해보겠습니다.
$\begin{bmatrix}1 & 2 &3 \\ 4 & 5 & 6\\ 7 & 8 & 9\end{bmatrix}\begin{bmatrix}1 & 0 &0 \\ 3 & 1 &0 \\ 0 & 0 &1 \end{bmatrix}=\begin{bmatrix}7 & 2 &3 \\ 19 & 5 & 6\\ 31 & 8 & 9\end{bmatrix}$
계산한 결과처럼 column에 대해 계산한 것을 확인할 수 있습니다.
2. 역행렬을 구하는 방법
그럼 왜 지금까지 Operation을 matrix로 나타내는 방법을 배운 것일까요?
만약에 어떤 matrix A가 있을 때 row operation을 이용해 identity matrix를 만들 수 있다고 해보겠습니다.
$E_{k}\cdots E_{2}E_{1}A = I$
이렇게 나타낸 식에서 양변에 A의 역행렬을 곱하면
$A^{-1}=E_{k}\cdots E_{2}E_{1}$
operation matrix의 조합으로 A의 역행렬을 구할 수 있게 되는 것입니다.
즉, 어떤 matrix A에 대해 역행렬을 구하고 싶을 때, $(A|I)$에서 시작해서 ($I$는 identity matrix) 양변에 동일한 row operation을 계산합니다. 마지막에 $A$를 $I$ 행렬로 바꾸면, 오른쪽의 $I$ matrix는 row operation들을 거쳐서 $A^{-1}$가 되는 것입니다.
최종적으로 $(I|A^{-1})$로 나타나게 됩니다.
이에 대한 예시를 보여드리겠습니다.
이와 같은 방식으로 역행렬을 구할 수 있습니다. 참고로 오른쪽 matrix를 구할 때는 operation matrix를 곱한다고 생각하기 보다는 왼쪽의 $A$행렬과 동일하게 row operation을 해준다고 생각하면 더 계산이 쉽게 느껴질 겁니다.
이 글은 여기까지 하고 다음에는 LU Decomposition에 대해 다루겠습니다.
'수학 Mathematics > 선형대수학 Linear Algebra' 카테고리의 다른 글
[응용선형대수] Vector Space/Subspace (0) | 2021.02.20 |
---|---|
[응용선형대수] LU Decomposition (0) | 2021.02.20 |
[응용선형대수] Inverse matrix/invertible (0) | 2021.02.18 |
[응용선형대수] matrix(matrices) (0) | 2021.02.17 |
[응용선형대수] Gauss elimination 가우스 소거법 (0) | 2021.02.09 |