반응형
과대적합 이란?
- 학습 데이터를 너무 세분화하게 학습하여, 새로운 데이터에 대한 성능이 좋지 않은 현상
- 모델의 크기가 너무 클 경우 발생할 수 있음
해결책
1) Dropout
- 학습 과정에서 랜덤한 몇개의 신경을 비활성화하고, 가중치를 분배하는 것
2) Batch Normalization
- 미니 배치의 신경망의 출력값을 정규화
3) 정칙화 (Regularization)
- 모델의 가중치를 규제하여 과적합을 방지하는 기법
- 손실 함수에 페널티를 추가하여, 모델이 학습 데이터에 대한 손실만 보고 학습되는 것을 방지
- L2 정칙화는 가중치의 제곱의 합을 손실 함수에 더하는 방식해, 모든 가중치들이 최소한의 영향력 가지게 함
- 딥러닝에서 기본적으로 사용하는 정칙화 기법이며, Optimizer에서 "weight_decay" 파라미터로 적용 가능
반응형
'AI > Deep Learning' 카테고리의 다른 글
| [딥러닝] 생성형 AI의 발전 과정 (0) | 2025.08.06 |
|---|---|
| [딥러닝] CNN (Convolutional Neural Network) (0) | 2024.12.11 |
| [딥러닝] 경사 하강법 (Gradient Descent) (0) | 2024.12.10 |
| [딥러닝] 인공 신경망의 기본 원리 (0) | 2024.12.09 |
| [딥러닝] Neural Network Model의 설계 (0) | 2024.12.08 |