일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 백준
- logistic regression
- Computer Vision
- Support Vector Machine
- 컴퓨터 비전
- 그래픽스
- recommender system
- SGD
- 컴퓨터 그래픽스
- cs231n
- Unsupervised learning
- 로지스틱 회귀
- Kaggle
- petal to metal
- 파이썬
- 머신러닝
- pre-trained
- SVM
- 비용함수
- Vision
- CPP
- 딥러닝
- CNN
- neural network
- 신경망
- 추천 시스템
- OpenGL
- 인공지능
- Regularization
- C++
- Today
- Total
목록computer vision (8)
kwan's note
이 노트는 고려대학교 김현우교수님의 대학원 강의인 컴퓨터 비전을 수강하고 작성하였습니다. 이전노트 https://reminder-by-kwan.tistory.com/157 컴퓨터 비전 - edge detection 이 노트는 고려대학교 김현우교수님의 대학원 강의인 컴퓨터 비전을 수강하고 작성하였습니다. 이전 수업 https://reminder-by-kwan.tistory.com/156 컴퓨터 비전 - denoising image with linear filter (평균값.. reminder-by-kwan.tistory.com 연속된 두장의 이미지를 어떻게하면 붙일 수 있는지에 관한 문제가 image allignment입니다. 즉 아래와 같은 두 이미지를 하나로 합치려는것입니다. 가장 간단하게 생각해 볼 ..
이 노트는 고려대학교 김현우교수님의 대학원 강의인 컴퓨터 비전을 수강하고 작성하였습니다. 이전 수업 https://reminder-by-kwan.tistory.com/156 컴퓨터 비전 - denoising image with linear filter (평균값 필터, 가우시안 필터) 이 노트는 고려대학교 김현우교수님의 대학원 강의인 컴퓨터 비전을 수강하고 작성하였습니다. 컴퓨터 비전의 가장 오래된 task중 하나는 바로 이미지의 denoise 입니다. 요즘에는 딥러닝을 이용 reminder-by-kwan.tistory.com edge detection에 앞서 edge detection 또한 컴퓨터 비전의 오래되고 유명한 문제중하나로 모서리를 탐지하여 선등으로 표현하는 작업이다. 익숙하고 간단한 프로세스이..
이 노트는 고려대학교 김현우교수님의 대학원 강의인 컴퓨터 비전을 수강하고 작성하였습니다. 컴퓨터 비전의 가장 오래된 task중 하나는 바로 이미지의 denoise 입니다. 요즘에는 딥러닝을 이용한 방법을 사용하는 경우가 많고 그 효과가 뛰어나지만 전통적인 방식의 denoise중에서도 가장 간단한 방법은 average를 이용하는 것 입니다. average를 이용해 아래 이미지를 denoise하는 방법은 주변의 평균을 이용해 해당 픽셀의 값을 조절하는 방식일 것입니다. 이러한 방식은 salt and pepper같은 특이값을 잡아내는데 사용할 수 있지만 이미지가 흐려져 일반적으로 사용하기는 어렵습니다. 다만 가장 간단하면서도 효과적으로 특정 부분의 튀는 값을 제거할 수 있습니다. 또다른 방식으로는(어쩌면 개선..
출처: cs231n 이전 lecture reminder-by-kwan.tistory.com/116 linear classification with softmax - 소프트맥스 회귀 출처 : cs231n lecture3 www.youtube.com/watch?v=h7iBpEHGVNc 이번에는 저번시간에 이어서 linear classification의 방식에 대해 알아보도록 하겠습니다. reminder-by-kwan.tistory.com/115 linear classificatio.. reminder-by-kwan.tistory.com 지금까지 loss function을 구하고 gradient descent 방식을 통해 optimize를 진행했습니다. 이제는 neural network에서 중요한 개념중 하나..
출처 : cs231n lecture3 www.youtube.com/watch?v=h7iBpEHGVNc 이번에는 저번시간에 이어서 linear classification의 방식에 대해 알아보도록 하겠습니다. reminder-by-kwan.tistory.com/115 linear classification, SVM - 선형 분류 출처 : cs231n lecture2 www.youtube.com/watch?v=OoUX-nOEjG0&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk&index=2 linear classification은 매우 기본이 되는 분류 방식이다. neural network의 근간이 되는 분류.. reminder-by-kwan.tistory.com 저번시간에 사용하였던..
출처 : cs231n lecture2 www.youtube.com/watch?v=OoUX-nOEjG0&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk&index=2 linear classification은 매우 기본이 되는 분류 방식이다. neural network의 근간이 되는 분류 방식이기도 하다. linear classification은 특징들이 parameter 형식으로 요약되어서 그 내적의 결과가 결과로 나타나는 방식이다. parametric approach를 보도록 하자. input으로 이미지를 넣으면 어떠한 계산을 진행하고 그 걸과로 값들을 반환받는다. 이때 반환값은 각 클래스의 점수가 되는데 해당점수가 가장 높은 클래스를 이미지의 클래스로 선택하게 된다. 이미지를 2..
출처: cs231n lecture 2 www.youtube.com/watch?v=OoUX-nOEjG0&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk&index=2 이미지의 classification 문제중 가장 먼저 떠올릴수 있는 방법중 하나인 최근접이웃 알고리즘이다. 최근접 이웃 알고리즘은 말 그대로 가장 가까운 데이터의 결과값을 그대로 출력한다는것이다. 위와 같이 k=1 인경우 특정 데이터에 대해 점은 train set의 data고 색은 그 결과값(y)라고 할때 영역의 표시이다. 특정점에 대해 가장 가까운 점의 위치를 파악해 그 데이터의 결과값을 가져온다. 하지만 위처럼 섬이 생기게 되고 이는 옳지 못할 가능성이 매우 크다. 특이점에 매우 민감하게 반응하며 위와같은 실수를 범..
이 노트는 Fei-Fei li 교수님의 spring 2017 cs231 lecture를 기반으로 작성하였습니다. 작년말 이 강의를 추천받고 초반 3개정도의 강의를들었는데 당시에 머신러닝에 최소한의 개념도 부족해서 어느 순간부터 이해하지 못하고 포기했다. 이번 방학기간동안 몇개의 강의를 더 들었고 이제 다시 공부하고자 한다. CS231n: Convolutional Neural Networks for Visual Recognition www.youtube.com/watch?v=vT1JzLTH4G4&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk 이는 2017년 강의로 2020년강의 혹은 그 이후의 강의 슬라이드와 약간 변화가 있지만 전체 강의가 공개된 2017년강의를 기준으로 작성하였..