NN 2


  1. 요구사항

MNIST data를 통해 신경망 심화 강의에서 학습한 것들을 적용해봅시다 (competition)

1) 도전해본 모든 경우의 수를 남겨주세요

- 3가지 이상, code 출력 남기기, 주석으로 설명 달기

ex) activation function Relu를 통한 모델의 accuracy는 0.90이었다. Batchnorm을 추가하니 accuracy가 어떻게 변화하였다. Batchnorm 대신 dropout을 이용하고 activation function PReLU를 써보니 결과가 ~~로 더 좋게/나쁘게 나왔다. Epoch를 ~~로 변화하였다 등등

2) (선택) 시각화를 해보세요

- accuracy 변화, 비교 등등


2. 우수 과제 선정 이유

  • activation, batchnormalization, weight initialization, dropout 등 11가지 도전을 하여 성능이 어떻게 변화했는지 차근차근 보여주어 우수과제로 선정하게 되었습니다.

3. 제출 과제 (14기 장혜림님)