일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 파이썬
- SVM
- SGD
- petal to metal
- 신경망
- 백준
- 그래픽스
- CNN
- Unsupervised learning
- 컴퓨터 비전
- 로지스틱 회귀
- 딥러닝
- 비용함수
- recommender system
- Support Vector Machine
- OpenGL
- 인공지능
- CPP
- 머신러닝
- neural network
- 추천 시스템
- C++
- Computer Vision
- Vision
- pre-trained
- Kaggle
- logistic regression
- 컴퓨터 그래픽스
- Regularization
- cs231n
- Today
- Total
kwan's note
linear classification with softmax - 소프트맥스 회귀 본문
linear classification with softmax - 소프트맥스 회귀
kwan's note 2021. 2. 14. 17:41출처 : cs231n lecture3
www.youtube.com/watch?v=h7iBpEHGVNc
이번에는 저번시간에 이어서 linear classification의 방식에 대해 알아보도록 하겠습니다.
reminder-by-kwan.tistory.com/115
저번시간에 사용하였던 multiclass SVM 모델도 장점들을 가지고 있지만 일부 단점들이 존재하였습니다.
최선의 모델에서만 lost function을 0으로 만드는것이 아니었고 각 결과값(점수)에 의미가 존재하지 않았습니다.
이에따라 확률적이고 sum을 1로 만드는 모델을 고안하였는데 이중 대표적인 모델이 softmax 방식입니다.
Softmax Classifier (Multinomial Logistic Regression)는 조건부확률을 이용한 모델로 exponential을 이용해 계산합니다.
이에따라 모든클래스의 P값의 합이 1이되므로 특정 클래스의 최대도 1로 제한됩니다.
이제 softmax function을 이용하여 lostfunction을 만들어봅시다.
softmax function의 함수값이 1인경우 loss 값은 0이되어야합니다. 그래야 loss 를 minimize하는 모델을 구현할 수 있습니다. 우리는 -log를 취하는 방식에서 이 방식을 만들어내었습니다.
이전에 진행했던(reminder-by-kwan.tistory.com/115) 것과 동일하게 고양이를 분류하는 모델리 있는경우를 생각해봅시다. exponetail을 취하고 normalize하면 위와같은 점수가 나오게된다.
여기 -log를 씌우면 costfunction의 값이 되는 방식이다.
multiclass SVM과 softmax 방식을 비교해보자.
이제 costfunction을 평가하는 방법을 알았으니 이를 이용해 Gradient descent method로 W를 구하도록 하자.
'computer vision > cs231n-Stanford' 카테고리의 다른 글
Backpropagation -역전파 (0) | 2021.02.14 |
---|---|
linear classification, SVM - 선형 분류 (0) | 2021.02.14 |
k nearest neighbor - k 최근접 이웃 (0) | 2021.02.14 |
cs231n (0) | 2021.02.13 |