일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- cs231n
- Unsupervised learning
- logistic regression
- Regularization
- 인공지능
- Computer Vision
- Vision
- recommender system
- OpenGL
- 파이썬
- 신경망
- Kaggle
- 비용함수
- Support Vector Machine
- 추천 시스템
- pre-trained
- SGD
- 백준
- SVM
- CNN
- CPP
- C++
- 머신러닝
- 그래픽스
- 컴퓨터 그래픽스
- neural network
- 딥러닝
- petal to metal
- 로지스틱 회귀
- 컴퓨터 비전
- Today
- Total
kwan's note
행렬의 대각화(Diagonalizable matrix) 본문
출처: 부스트코스-인공지능을 위한 선형대수
수강일시:2021.01.07
이번 강의에서는 고유값 분해와 밀접한 관련을 가지는 대각화의 개념에 대해 배워보겠습니다.
이는 나중에 배울 특이값 분해(SVD: Singular Value Decomposition)와도 밀접한 관련이 있습니다.
대각성분이 아닌 모든 성분이 0인 행렬을 대각행렬이라고 한다.
따라서 대각화는 대각행렬이 아닌 행렬에 다른행렬의 곱을통해 대각행렬로 만드는 과정이다.
대각행렬 D가 되도록 하는 V를 찾도록 하자. 하지만 모든 행렬이 이런 방식으로 대각화가 가능한것은 아니다.
V가 존재하지 않는다면(V의 역행렬이 없다면) 찾을 수 없게된다.
V를 찾는 방법을 확인해보자
AV를 먼저 계산해보자
AV=A[v1 v2 v3 ...]=[Av1 Av2 Av3 ...] (by column combination)
VD=[v1 v2 ...v3] [[lambda1 0 0 0...][0 lambda2 0 0...][0 0 lamda3 0...] ...]=[lambda1v1 lamda2v2 lambda3v2 ...]
AV=VD라는것은 [Av1 Av2 Av3 ...] 와 [lambda1v1 lamda2v2 lambda3v2 ...]가 일치한다는 것이다.
Av1 = lambda1v1
Av2 = lambda2v2
이는 각 eigen value eigen vector 계산(특성방정식의 풀이)들을 이용하여 계산하게 된다.
이떄 V는 nxn 인 square matrix로 각 column이 linearly independent 해야한다.
이결과를 이용해 V^(-1) A V 계산을 통해 D를 만든다.
'Math > Linear algebra' 카테고리의 다른 글
특이값 분해(Singular Value Decomposition) (1) | 2021.01.09 |
---|---|
고유값 분해(Eigen decomposition)와 선형변환 (0) | 2021.01.07 |
특성방정식(Characteristic Equation) (0) | 2021.01.07 |
영공간(Null Space)과 직교여공간(Orthogonal Complement) (0) | 2021.01.07 |
고유벡터와 고유값 (Eigenvectors and eigenvalues) (0) | 2021.01.07 |