Skip to content

Latest commit

 

History

History
56 lines (34 loc) · 1.96 KB

CH6. Deep Feedforward Networks.md

File metadata and controls

56 lines (34 loc) · 1.96 KB

Deep Feedforward Networks

= feedforward neural network

= multilayer perceptrons (MLP)

deep learning

f(x) = f_3(f_2(f_1(x)))와 같이 여러 겹의 depth로 사용하기도 함 중간 layer는 결과를 직접 사용하지 않으므로 hidden layer라고도 함 width : 각 layer 벡터의 차원

linear model은 2개 이상의 입력 변수 간 상호작용을 이해x

nonlinear transformation 사용 -> 학습하여 일반적인 transformation을 사용하거나 메뉴얼하여 사용

-Learning XOR

image Matrix를 사용하여 왼쪽->오른쪽 으로 단순하게 표현 가능

두 개의 layer를 사용해도 둘 다 linear function이면 한 개의 layer을 사용한 모델과 동일해짐

ReLU(Rectified Linear Unit)와 같은 activation function을 사용하여 h가 nonlinear function이 되도록 함 image 이를 만족하는 W,c,w는 무한함 -> gradient descent를 사용하여 error 최소화

Gradient Based Learning

loss function이 convex하지 않다는 점에서 머신러닝 모델과 다름 gradient : 초기에 랜덤 -> 학습 -> 수렴

Cost Functions

MLE(cross-entropy)를 cost function으로 사용한다는 점에서 머신러닝 모델과 동일

  • Mean Squared Error

무한히 많은 샘플들을 학습시킬 수 있다면, MSE 최소화 = 각 x값에 대한 y의 평균 예측 image

image

  • Mean Absolute Error

최적화한 함수들 집합으로 묘사 -> 각 x에 대한 t의 중간값 예측 image