일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Vision
- 백준
- 컴퓨터 비전
- 추천 시스템
- C++
- 머신러닝
- CNN
- pre-trained
- SGD
- 인공지능
- Kaggle
- 신경망
- 비용함수
- 컴퓨터 그래픽스
- Unsupervised learning
- SVM
- Support Vector Machine
- 로지스틱 회귀
- petal to metal
- neural network
- cs231n
- OpenGL
- CPP
- 그래픽스
- logistic regression
- Computer Vision
- 딥러닝
- recommender system
- Regularization
- 파이썬
- Today
- Total
kwan's note
특성방정식(Characteristic Equation) 본문
출처: 부스트코스-인공지능을 위한 선형대수
수강일시:2021.01.07
고유값과 고유벡터
reminder-by-kwan.tistory.com/34
고유벡터와 고유값 (Eigenvectors and eigenvalues)
출처: 부스트코스-인공지능을 위한 선형대수 수강일시:2021.01.07 고유값 분해는 이미 널리 알려지고 다양한 분야에서 쓰이고 있는 주성분분석(PCA: Principal Component Analysis) 등의 주요 머신러닝 알고
reminder-by-kwan.tistory.com
영공간과 직교여공간
reminder-by-kwan.tistory.com/35
영공간(Null Space)과 직교여공간(Orthogonal Complement)
출처: 부스트코스-인공지능을 위한 선형대수 수강일시:2021.01.07 이번 시간에서는 고유값과 고유벡터의 개념과 이를 구하는 과정을 벡터 공간과 결부시켜 더 깊히 이해하기 위해 새로운 벡터 공
reminder-by-kwan.tistory.com
이번 시간에는 지난 시간에 배운 새로운 벡터 공간의 개념을 바탕으로
고유벡터와 고유값을 더 깊이 이해하고 특성방정식(Characteristic Equation)을 통해 이들을 구하는 법을 알아보겠습니다.
A가 nonzero 인 eigenvector를 가지려면
A- lambda I 가 linearly dependent해야 했고 이는 역행렬이 존재하지 않을때와 동일하다.
즉, det A- lambda I =0이 될때 A가 lambda가 존재한다.
이 계산식을 특성방정식이라고 한다.
특성방정식의 풀이
식만 따라가면 간단하게 볼 수 있다.
마지막으로 eigenvalue 와 eigenvector 를 찾는 과정에서 eigen space를 보고자한다.
특정 eigen value에 대해 eigen vector들이 존재하는 공간을 eigen space라고 한다.
다시말해 (어떤 람다에 대해) A-lambda I의 null space라고 할 수 있다.
eigen space에서 어떤 벡터를 뽑아서 A와 곱하더라도 결과는 해당 벡터의 상수배(람다 배)가 된다. 즉 평면안에 닫혀있다.
'Math > Linear algebra' 카테고리의 다른 글
고유값 분해(Eigen decomposition)와 선형변환 (0) | 2021.01.07 |
---|---|
행렬의 대각화(Diagonalizable matrix) (0) | 2021.01.07 |
영공간(Null Space)과 직교여공간(Orthogonal Complement) (0) | 2021.01.07 |
고유벡터와 고유값 (Eigenvectors and eigenvalues) (0) | 2021.01.07 |
그람-슈미트 직교화(Gram-Schmidt Orthogonalization) (0) | 2021.01.07 |