Notice
Recent Posts
Recent Comments
Link
관리 메뉴

뛰는 놈 위에 나는 공대생

[선형대수학] 행렬 분류 Matrix Phylogeny 본문

수학 Mathematics/선형대수학 Linear Algebra

[선형대수학] 행렬 분류 Matrix Phylogeny

보통의공대생 2022. 3. 20. 21:10

클릭하면 커집니다

 

선형대수학에서 여러 matrix category가 있는데 맨날 정의를 잊어버리고 각 개념의 포함관계를 잘 알 수 없었다.

그래서 책(아래 참고문헌 적어놓음)을 참고하여 이번에 정리를 하고자 한다.

 


첫 번째 분류

1. Square / Non-square matrix

 

matrix의 행과 열의 길이가 같으면 square matrix라고 한다.

그렇지 않은 non-square matrix는 선형대수학을 공부하면서 거의 다루지 않지만 dynamics를 공부하다보면 흔하게 나온다.

일반적인 경우에 변수와 방정식의 갯수가 일치하기가 쉽지 않기 때문이다. 그래서 이런 non-square matrix도 분석할 수 있는 Singular Value Decomposition(SVD)를 수행할 수 있다. SVD는 square matrix의 eigenvalue decomposition과 동일하다.

 

아래 분류는 Square matrix에 집중한다.

두 번째 분류 기준

2. Determinant

 

Determinant는 square matrix를 하나의 스칼라로 바꿔주는 연산자라고 볼 수 있다. matrix의 크기에 따라 다르지만 일반적으로 2x2 matrix는

$\det \begin{bmatrix}a&b\\c&d\end{bmatrix}=ad-bc$

라고 알려져있다.

 

이 determinant가 0이면 singular matrix라고 한다.

그리고 determinant가 0이 아니면 regular matrix, invertible matrix라고 한다. 또는 nonsingular matrix라고도 할 수 있을 것이다. invertible matrix라는 이름에서 알 수 있듯이 이 matrix는 역행렬 계산이 가능하다.

 

또한 같은 square matrix 분류 중에서도 다른 기준이 있다.

 

 

3. n linearly independent eigenvectors

 

matrix를 eigenvalue decomposition을 했을 때 선형독립인 eigenvectors가 matrix의 차원인 n개만큼 존재하는지 아닌지에 따라 나눌 수 있다.

 

Non-detective matrix는 diagonalizable matrix와 같다. 즉, n개의 선형 독립 eigenvectors를 가졌다는 뜻이다.

 

반대로 defective matrix는 diagonalizable하지 않다. 즉, 대각화 행렬로 바꿀 수 없다. eigenvalue decomposition의 목적 중 하나는 어떤 matrix를 eigenvectors의 상수 곱으로 표현할 수 있도록 대각화하는 게 목적이기 때문에 이렇게 분류를 한 것으로 보인다. defective matrix에는 repeated eigenvalue를 가진 경우와 complex eigenvalue를 가진 경우가 포함될 수 있다. repeated eigenvalue를 가진 경우에는 jordan form으로 대각 행렬과 비슷하게 바꿀 수 있고, complex eigenvalue인 경우에는 실수부와 허수부를 분리하여 대각 행렬과 비슷하게 바꿀 수 있다.

 

참고로 eigenvalue 중에 0이 있는 경우는 2번의 determinant 기준으로 봤을 때 singular matrix인 경우이다.

$Ax=0$을 만족시키는 eigenvector가 있을 수 있다. 따라서 2번 분류 기준과 3번 분류 기준이 어떤 집합에 속해있는 게 아니라 별개로 생각하는 것이다.

 

$\text{Example : }A=\begin{bmatrix}1&0 \\ 0 & 0 \end{bmatrix}$

$\text{eigenvalue : }1,0$

$(A-1\cdot I)v_{1} =\begin{bmatrix}0&0 \\ 0 & -1 \end{bmatrix}v_{1}=\begin{bmatrix}0 \\ 0 \end{bmatrix} \Rightarrow v_{1}=\begin{bmatrix}1 \\ 0 \end{bmatrix}$

$(A-0\cdot I)v_{2}=\begin{bmatrix}1&0 \\ 0 & 0 \end{bmatrix}v_{2}=\begin{bmatrix}0 \\ 0 \end{bmatrix} \Rightarrow v_{2}=\begin{bmatrix}0 \\ 1 \end{bmatrix}$

 

 

 

$\textbf{Definition. (defective matrix) }\text{A square matrix }A\in \mathbb{R}^{n\times n}\text{ is defective if it possesses}$

$\text{fewer than n linearly independent eigenvectors.}$

 

$\textbf{Algebraic multiplicity :}$

Let a square matrix $\boldsymbol{A}$ have an eigenvalue $\lambda_{i}$. The algebraic multiplicity of $\lambda_{i}$ is the number of times the root appears in the characteristic polynomial.

 

eigenvalue decomposition을 할 때 $\det (A-\lambda I)$를 구할 때 그 eigenvalue가 여러 번 곱해져 있는 경우를 algebraic multiplicity가 1보다 큰 경우이다.

 

 

$\textbf{Geometric multiplicity :}$

Let $\lambda_{i}$ be an eigenvalue of a square matrix $\boldsymbol{A}$. Then the geometric multiplicity of $\lambda_{i}$ is the number of linearly independent eigenvectors associated with $\lambda_{i}$. In other words, it is the dimensionality of the eigenspace spanned by the eigenvectors associated with $\lambda_{i}$.

 

한 eigenvalue에 대해서 선형 독립인 eigenvector가 여러 개 존재하는 경우 geometric multiplicty가 1보다 크다.


이제 Regular matrix에서 좀 더 분류를 할 생각이다.

 

Regular matrix = invertible matrix = singular matrix 중에서

orthogonal eigenvectors를 가지면 orthogonal matrix라고 한다.

 

orthogonal eigenvectors는 각 eigenvectors의 내적이 0이라는 뜻이다.

 

$\textbf{Definition. (orthogonal matrix) }\text{A square matrix }A\in \mathbb{R}^{n\times n }$

$\text{is an orthogonal matrix if and only if its columns are orthonormal so that }$

$AA^{\top}=I=A^{\top}A \Rightarrow A^{-1}=A^{\top}$

 

이것이 complex domain으로 확장되면 Unitary matrix라고 한다.

 

 

 


Non-defective matrix에 대해서 분류를 해보면

n개의 선형독립인 eigenvectors를 가지고 있을 때

$A^{\top}A=AA^{\top}$이 성립하면 normal matrix라고 한다. 그렇지 않으면 non-normal matrix.

그런데 이 $A^{\top}A$가 Identity matrix이면 위에서 다뤘던 orthogonal matirx라고 볼 수 있다.

 

normal matrix 중에는 symmetric matrix (complex domain까지 포함하면 Hermitian matrix)가 있다. symmetric matrix는 분류기준으로 보았을 때 항상 n개의 선형독립인 eigenvectors가 존재하며, eigenvalues는 항상 real이다.

 

또한 symmetric matrix 안에 속하는 positive definite matrix는 모든 eigenvalue가 0보다 큰 matrix로, cholesky decomposition을 할 때 unique한 결과가 나오는 것이 알려져있다.

즉, positive definite matrix는 항상 symmetric이다.

 

사실 엄밀히 따지면 positive definite의 정의는 다음과 같다.

$v^{\top}Av>0 \text{ for real }v\neq 0$을 만족하는 symmetric matrix를 positive definite라고 한다.

 

$A=\begin{bmatrix}1 & 1 \\ -1 & 1\end{bmatrix}$인 경우에는 $v^{\top}Av>0$이지만 이 때는 eigenvalue가 complex number이라는 점이 중요하다. 이렇게 positive definite임을 알고 싶은 이유는 보통 최적화 문제에서 다루는 경우인데 그 때 결과인 $v$가 complex이길 바라지 않기 때문에 애초에 symmetric이라는 가정을 달아놓는 것 같다.

 

한편 Hermitian matrix 중에서도 $v^{*}Av>0 \text{ for complex }v\neq 0$을 만족하면 positive definite라고 한다.

 

 

 


참고문헌

Deisenroth, Marc Peter, A. Aldo Faisal, and Cheng Soon Ong. Mathematics for machine learning. Cambridge University Press, 2020.

Comments