A = numpy.array([ 1 , 2, 3 ]) : 1차원 -> numpy.shape(A) = (3, ) // A array의 dim 0 값은 3! # numpy array의 차원 인덱스는 0차원부터 시작한다! B = numpy.array([ [ 1 , 2 , 3 ] , [ 3 , 4 , 5 ] ]) : 2차원 행렬-> numpy.shape(B) = (2, 3) // B array의 dim 0 값은 2, dim 1 값은 3!
numpy 배열에 부등호 연산을 적용하면, BOOL 타입의 배열이 생성된다! e.g x = np.array([[ -1 , 1 ],[ 3 , -2 ]]) y = x > 0 (x array에서 0보다 큰 것!) y = array([ False , True ], [ True , False ]) def activation_step(x): y = x > 0 return y.astype( np.int ) //bool type y 받아 true는 1, false는 0 으로 변환하여 출력. //astype(원하는 자료형) 출처: deep learning form
cs231n assignment#1 CIFAR-10 data #Reshape the image data into rowsX_train = np.reshape(X_train, (X_train.shape[0], -1))X_test = np.reshape(X_test, (X_test.shape[0], -1)) print(X_train.shape, X_test.shape) //result: (5000, 3072) (500, 3072) basic form: np.reshape( data, (row, column)) data를 row * column form으로 reshape한다. 위 cs231n code에 의하면, CIFAR-10 Image data를 하나의 긴 vector form으로 바꿔 다루고자 numpy의..
OPTIMIZATIONneural network를 공부하는 데, 가장 먼저 설명들었던 부분이다. (연구실에서 정말 많이 들었던 말! 이번 기회에 정리하고 넘어가자) 문제를 풀기위해서는 parameter들을 적절한 값으로 update를 해줘야하고 그 값을 결정하는 데 optimize과정이 필요하다. 예를 들어, loss function의 값을 minimize하는 과정 등을 optimization 이라고 할 수 있다.loss function이 0에 가까울수록 실제 data와 가깝게 분류나 예측 등의 문제를 해결한 것이다. 때문에 loss function의 값을 최소로 하는 최적의 값을 찾는 과정, 이를 optimization이라 하는 것이다. 출처: http://sanghyukchun.github.io/63..