각 layer의 노드마다 적용되는 activation function은 연산이 이뤄진 후의 입력값의 모음(?)을 입력으로 받아 원하는 출력 신호로 변환해주는 함수입니다. 예를 들어, 인풋으로 들어오는 값이 0.5 이상이면 1로, 0.5 미만이면 0으로 출력되도록 해야겠다고 activation function을 정의할 수 있겠죠? 변환자의 역할을 하는 것입니다. 출력층의 activation function은 좀 더 특별합니다. 출력층의 activation function은 우리가 풀고자 하는 문제가 classification인지, regression인지 등.. 문제에 맞춰 정의합니다.//classification : input data가 1번 클래스일까? 2번 클래스일까?//regression: input..
A = numpy.array([ 1 , 2, 3 ]) : 1차원 -> numpy.shape(A) = (3, ) // A array의 dim 0 값은 3! # numpy array의 차원 인덱스는 0차원부터 시작한다! B = numpy.array([ [ 1 , 2 , 3 ] , [ 3 , 4 , 5 ] ]) : 2차원 행렬-> numpy.shape(B) = (2, 3) // B array의 dim 0 값은 2, dim 1 값은 3!
numpy 배열에 부등호 연산을 적용하면, BOOL 타입의 배열이 생성된다! e.g x = np.array([[ -1 , 1 ],[ 3 , -2 ]]) y = x > 0 (x array에서 0보다 큰 것!) y = array([ False , True ], [ True , False ]) def activation_step(x): y = x > 0 return y.astype( np.int ) //bool type y 받아 true는 1, false는 0 으로 변환하여 출력. //astype(원하는 자료형) 출처: deep learning form