일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- CPP
- neural network
- 파이썬
- recommender system
- OpenGL
- SGD
- 인공지능
- 그래픽스
- 딥러닝
- Kaggle
- 백준
- 비용함수
- 머신러닝
- Regularization
- 컴퓨터 비전
- C++
- 추천 시스템
- Unsupervised learning
- pre-trained
- SVM
- petal to metal
- 로지스틱 회귀
- logistic regression
- Vision
- Support Vector Machine
- 신경망
- Computer Vision
- cs231n
- CNN
- 컴퓨터 그래픽스
- Today
- Total
목록ML and AI (46)
kwan's note
출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.02.08 마지막으로 머신러닝 성능을 높이기 위한 방법을 생각해 보도록 하겠습니다. 데이터의 숫자가 정해진 경우의 처리 방법에대해서는 (bias 와 variance를 조절하는 방법, 파라미터 람다를 조절하여 regularization하는 방법, 데이터가 많은경우 SGD, mini batch 혹은 online learning 등) 이미 전 수업에서 다루었습니다. 그렇다면 이제 데이터의 숫자를 어떻게 늘릴수 있는지 먼저 생각해 보도록 하겠습니다. 가지고 있는 데이터셋을 글자의 이미지라고 해 봅시다. 이때 가지고 있는 데이터를 변형한다면 또 다른 데이터셋을 만들 수 있게됩니다. 가령 ..
출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.02.07 reminder-by-kwan.tistory.com/110 Mini batch gradient descent 출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.02.07 reminder-by-kwan.tistory.com/109 Stochastic gradient descent(SGD) -확률적 경사 하강법 출처: machine learning by and.. reminder-by-kwan.tistory.com 이번에도 데이터가 많은경우 처리방법에 대해 배워보도록 하겠습니다. 첫번째 주제는 o..
출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.02.07 reminder-by-kwan.tistory.com/109 Stochastic gradient descent(SGD) -확률적 경사 하강법 출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.02.06 reminder-by-kwan.tistory.com/89?category=962582 gradient descent(경사하강법) 출처: machine learning by andrew ng, s.. reminder-by-kwan.tistory.com 이번시간에도 저번시간에 이어 데이터가 매우 많은..
출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.02.06 reminder-by-kwan.tistory.com/89?category=962582 gradient descent(경사하강법) 출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.01.24 reminder-by-kwan.tistory.com/88 Cost function -비용함수/ 손실함수 출처: machine learning by andrew ng, stanford cou.. reminder-by-kwan.tistory.com 이번시간에는 데이터세트가 매우 큰 경우를 생각해 보고자 한다. ..
출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.02.06 reminder-by-kwan.tistory.com/107 recommendation system - 추천 시스템 (content based) 출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.02.06 이번에는 넷플릭스 왓챠같은 ott부터 아마존 쿠팡과 같은 사이트에서 핵심기술로 사용되고 있는 추천 시스템에 대해 알아보.. reminder-by-kwan.tistory.com 이번 시간에는 저번 시간에 이어 recommendation system에 대해 알아보고자 합니다. 저번 시간에는 con..
출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.02.06 이번에는 넷플릭스 왓챠같은 ott부터 아마존 쿠팡과 같은 사이트에서 핵심기술로 사용되고 있는 추천 시스템에 대해 알아보고자 합니다. 영화에 평점을 매기는 시스템이 있다고 할 때 다음과 같이 평가하는 시스템이 있다고 해보자. nu= 사용자수 nm= 영화수 r(i,j)= j가 영화i를 평가했는지 y(i,j)= j가 영화i에 준 평점 일때 위 예시에서는 nu=4 nm=5가 된다. content based recommender system에서를 보자. 이때 x는 영화의 특성을 나타내는 벡터이다 예를들어 x1은 로맨스 index, x2는 액션영화index 등 이다. 그리고 th..
출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.02.06 reminder-by-kwan.tistory.com/86?category=962582 supervised learning -지도학습 출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.01.24 reminder-by-kwan.tistory.com/85 machine learning - Andrew Ng, Stanford(coursera) 이 복습노트는 Stanford의 Andrew Ng.. reminder-by-kwan.tistory.com 이번시간에는 이상값 탐지에 대해 알아보도록 하겠습니다...
출처: machine learning by andrew ng, stanford cousera lecture 수강일시: 2021.02.05 이번시간에는 차원축소에 대해 알아보도록 하겠습니다. 차원 축소는 n차원의 특성을 r차원으로 축소하는 방법의 문제입니다. 먼저 다음과 같은 선형 관계의 특성(cm 와 inch 단위)에 대해 두 값은 "길이"라는 하나의 특성으로 압축할 수 있게됩니다. 따라서 이에대한 2차원 특성을 1차원으로 축소할 수 있게된다. 또는 이와 유사하게 3차원 특성중 어떠한 평면으로 나타나는 특성을 2차원으로 사영시켜 표현할 수 있다. 이러한 차원축소를 사용하는 이유중 하나의 큰 부분은 특성의 시각화이다. n차원의 특성을 2차원 또는 3차원으로 축소한다면 보기 쉽게 데이터의 특성을 파악할 수 ..