ActivationFuction, Learninglate, LossFunction 별 그래프 출력
Activation function 종류별 성능 1. Adam 2. Adamax 3. ASGD 4. Rprop Learning Rate별 성능 MESLoss, Adam Activation Function으로 진행. loss가 1보다 작아질 때까지 돌림. 1. lr = 0.0001 2. lr = 0.00001 3. lr = 0.00005 4. lr = 0.000005 5. lr = 0.000001 Loss Function 별 성능 lr = 0.00001, optimizer = Adam 1. MSELoss() 2. SmoothL1Loss() 3. L1Loss() 베이스코드 #Pretrained NN이 항상 1이 나오도록 학습시킨다. #Gound Truth를 1로 넣어주고 학습 시킨 후 모델 저장, 이후 te..