목록전체 글 (46)
Archive
Udemy The Complete Neural Network Bootcamp 참고 Softmax FunctionSigmoid FunctionTanh FunctionReLU and PReLU FunctionELU FunctionOthers
AI/Deep Learning
2024. 12. 7. 04:51
Udemy The Complete Neural Network Bootcamp 참고 L1 L2 Huber LossCross Entropy LossBinary Cross Entropy LossKL Divergence LossContrastive Loss and Triplet Ranking LossHinge Loss
AI/Deep Learning
2024. 12. 7. 04:38
Udemy The Complete Neural Network Bootcamp 참고Perceptron의 기본 형태 Gradient DescentBack Propagation예측이 실제값과 얼마나 다른지 오차를 계산하고, 그 오차를 역방향으로 전달하여 가중치 조정하는 방식 데이터 처리 단위Sample: 하나의 데이터 포인트Batch: 학습 데이터 셋을 나누는 단위, Batch의 크기가 곧 Sample의 개수Mini Batch: Batch를 작은 단위로 나눈 것Epoch: 학습 데이터 셋 전체를 한번 학습하기 위해 반복한 횟수e.g. 이미지 분류 문제에서 총 10,000장의 Sample을 준비했다고 한다면, Sample의 개수이자 Batch의 크기는 10,000. 10,000장의 이미지를 한 번에 1,000장..
AI/Deep Learning
2024. 12. 7. 04:28