반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- petal to metal
- cs231n
- 인공지능
- 딥러닝
- 머신러닝
- SGD
- Kaggle
- 추천 시스템
- 신경망
- CPP
- recommender system
- Support Vector Machine
- neural network
- Regularization
- Vision
- SVM
- C++
- CNN
- Unsupervised learning
- 백준
- 로지스틱 회귀
- 비용함수
- logistic regression
- OpenGL
- 컴퓨터 비전
- 그래픽스
- Computer Vision
- 파이썬
- pre-trained
- 컴퓨터 그래픽스
Archives
- Today
- Total
목록차원축소 (1)
kwan's note
Dimesionality reduction - 차원축소 , PCA( principal component analysis)
출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.02.05 이번시간에는 차원축소에 대해 알아보도록 하겠습니다. 차원 축소는 n차원의 특성을 r차원으로 축소하는 방법의 문제입니다. 먼저 다음과 같은 선형 관계의 특성(cm 와 inch 단위)에 대해 두 값은 "길이"라는 하나의 특성으로 압축할 수 있게됩니다. 따라서 이에대한 2차원 특성을 1차원으로 축소할 수 있게된다. 또는 이와 유사하게 3차원 특성중 어떠한 평면으로 나타나는 특성을 2차원으로 사영시켜 표현할 수 있다. 이러한 차원축소를 사용하는 이유중 하나의 큰 부분은 특성의 시각화이다. n차원의 특성을 2차원 또는 3차원으로 축소한다면 보기 쉽게 데이터의 특성을 파악할 수 ..
ML and AI/Machine learning - Andrew Ng
2021. 2. 6. 14:22