일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- cs231n
- Support Vector Machine
- 비용함수
- OpenGL
- 컴퓨터 비전
- petal to metal
- CPP
- 신경망
- logistic regression
- Regularization
- Unsupervised learning
- 파이썬
- recommender system
- Computer Vision
- 그래픽스
- 백준
- 머신러닝
- pre-trained
- CNN
- 추천 시스템
- neural network
- 로지스틱 회귀
- C++
- SVM
- 컴퓨터 그래픽스
- Vision
- Kaggle
- SGD
- 인공지능
- 딥러닝
- Today
- Total
kwan's note
logistic regression -로지스틱 회귀 본문
출처: machine learning by andrew ng, stanford cousera lecture
수강일시: 2021.01.26
reminder-by-kwan.tistory.com/86
지도 학습문제에서 보았던 binary classification문제를 선형 근사로 풀어보자.
처음에는 그럴듯한 결과를 보이는듯하지만 몇가지 문제를 더 풀다 보면 때로는 정확하지 않은 결과가 나오기도 한다.
이는 hyphothesis function이 yes와 no가 아닌 그 바깥 부분까지 연장되기 때문에 발생한다.
즉, 특이값이 있는경우 선형 회귀는 특이값에 대한 거리를 줄이려고 하므로 (cost function이 거리의 제곱에 비례하므로 이런 현상이 생긴다) 여기서 문제가 발생한다.
따라서 classification에서 가설함수의 범위를 제한하여 분류문제에서 원하는 결과를 얻을 수 있는 로지스틱 회귀에 대해 찾아보도록 하자.
가설함수의 범위를 0에서 1로 한정하기 위한 방법으로 로지스틱회귀는
시그모이드 함수(sigmoid function) 다른말로는 로지스틱 함수(logistic function)을 사용한다.
hθ(x)=g(θTx)
z=θTx
g(z)=1/(1+e^-z)
g를 씌움으로 h의 범위를 제한하는 방법을 택하였다.
따라서 h(theta)는 이제 0 또는1이 될 확률을 나타내게 된다.
hθ(x)≥0.5→y=1
hθ(x)<0.5→y=0
으로 만들도록 하는데
이에따라 theta x 가 0보다 클 때 h가 0.5이상이 된다.
즉 theta x 를 0으로 만드는 함수를 기준으로 설계한다. 다음은 이에 대한 예시이다.
다음 내용으로 로지스틱 회귀를 이용해 cost function을 실제로 구하는 방법에 대해 알아보도록 하겠습니다.
reminder-by-kwan.tistory.com/92
'ML and AI > Machine learning - Andrew Ng' 카테고리의 다른 글
overfitting- 과적합 (0) | 2021.01.26 |
---|---|
cost function in logistic regression -로지스틱 회귀에서 비용함수 (0) | 2021.01.26 |
Normal Equation-정규방정식 (0) | 2021.01.26 |
gradient descent(경사하강법) (0) | 2021.01.24 |
Cost function -비용함수/ 손실함수 (0) | 2021.01.24 |