해당 글은 Stanford CS class CS231n: Convolutional Neural Networks for Visual Recognition 강의를 기반으로 하고 있습니다.(출처 :http://cs231n.stanford.edu/syllabus.html) Video 강의와 강의 note를 가지고 정리하고 있습니다.Convolution and poolingConNets outside vision
해당 글은 Stanford CS class CS231n: Convolutional Neural Networks for Visual Recognition 강의를 기반으로 하고 있습니다.(출처 :http://cs231n.stanford.edu/syllabus.html) Video 강의와 강의 note를 가지고 정리하고 있습니다.Backpropagation'neural network에서 parameter를 학습시킬 때, 좋은 성능의 모델을 얻으려 optimization하는 방법으로 - gradient를 따라간다'이전 정리에서 말씀드린 것 기억하시나요? gradient()는 해당 포지션 p 에서 가장 급격하게 기울기가 상승하는 방향을 나타냅니다. loss function 가 주어진 상황에서 우리가 해야할 일은,..
해당 글은 Stanford CS class CS231n: Convolutional Neural Networks for Visual Recognition 강의를 기반으로 하고 있습니다.(출처 :http://cs231n.stanford.edu/syllabus.html) Video 강의와 강의 note를 가지고 정리하고 있습니다.Regularization이전 정리에서 모델의 성능을 평가할 때, 'Weight parameter가 잘 학습되어 총 loss 값이 0에 가까운가'를 기준으로 한다는 것을 배웠습니다. 그런데 여기서 주의할 점이 있습니다. 우리가 만든 모델의 loss 를 0으로 만드는 W parameter matrix가 오직 하나만 존재할까요? 예를 들어 총 loss 값을 0으로 만드는 아주 정확하게 클..
해당 글은 Stanford CS class CS231n: Convolutional Neural Networks for Visual Recognition 강의를 기반으로 하고 있습니다.(출처 :http://cs231n.stanford.edu/syllabus.html) Video 강의와 강의 note를 가지고 정리하고 있습니다.Recall... Linear ClassificationLinear classifier와 같은 분류 모델을 설정하고 나면 해야할 일 두가지가 있습니다. 1. Define a loss function loss function은 classifier의 성능을 보여주는 척도입니다. loss function 값이 작을 수록, 즉 0에 가까울수록 classifier가 데이터 샘플을 잘 분류하는 ..
데이터 연구실 서버서 돌리기로! /assignment1/cs231n cd assignment1pip install -r requirements.txt #과제 수행하는 데 필요한 모듈들 한번에 다운로드#argparse 등... #Could not find a version that satisfies the requirement site==0.0.1 (from -r requirements.txt (line 42)) (from versions: )#python version 3.4에 안맞는다. #root 계정없이 python upgrade 하는 방법 찾기#conda python3.6 버전으로 설치// conda python2.7 환경이랑 구분해서 사용하기 ------------------------------..
해당 글은 Stanford CS class CS231n: Convolutional Neural Networks for Visual Recognition 강의를 기반으로 하고 있습니다.(출처 :http://cs231n.stanford.edu/syllabus.html) Video 강의와 강의 note를 가지고 정리하고 있습니다.Linear Classification CIFAR10 data 50,000 training imageseach image is 10,000 test images Nearest Neighbor Classification을 사용하여 data-driven approach 방식으로 모델을 training하고 test하는 과정을 살펴보았습니다. Linear Classification은 trai..
Domingos, Pedro. "A few useful things to know about machine learning." CACM, 55.10(2010): 78-87 No free lunch theorem (NFL theorem) We have dubbed the associated results NFL theorems because they demonstrate that if an algorithm performs well on a certain class of problems then it necessarily pays for that with degraded performance on the set of all remaining problems
해당 글은 Stanford CS class CS231n: Convolutional Neural Networks for Visual Recognition 강의를 기반으로 하고 있습니다.(출처 :http://cs231n.stanford.edu/syllabus.html) Video 강의와 강의 note를 가지고 정리하고 있습니다. 1. Image Classification Data-driven approach vs Parametric approach Image classification problem을 해결하는 데 접근 방식을 Data-driven approach와 Parametric approach로 나눠 생각해봅시다. 전자의 경우 기계에 (여기서 말하는 기계는 보통 컴퓨터를 말합니다.) 아주 많은 데이터를..
해당 글은 Stanford CS class CS231n: Convolutional Neural Networks for Visual Recognition 강의를 기반으로 하고 있습니다.(출처 :http://cs231n.stanford.edu/syllabus.html) Video 강의와 강의 note를 가지고 정리하고 있습니다. Introductory lecture 1. Image Classification Motivation&ExampleImage Classification problem: the task of assigning an input image one label from a fixed set of categories.입력으로 들어오는 이미지가 있고, 정해진 카테고리도 있는 상태입니다. 입력으로 ..