1. overfitting
앞에서 이야기했던 오버피팅(overfitting)으로, 이는 학습 오류가 테스트 데이터셋에 대한 오류보다 아주 작은 경우입니다. 때문에 train data set에 대한 예측의 성능은 굉장히 높지만 새로운 데이터에 대한 예측을 잘 못합니다.
2. underfitting
모델이 너무 간단해서 학습 오류가 줄어들지 않는 것입니다.