[Day13] DL Basic 3. Optimization 최적화 - 1 1. Generalization 대부분 일반화 성능을 높히는 것이 목적이다. training error가 낮아져도 학습이 잘 됬다는 보장은 없다. test error에 대해서는 커질 수 있다. 그래서 training error와 test error 사이의 차이를 generalization gap이라고 하고, generalization 성능이 좋다는 것은 이 network의 성능이 학습 데이터의 성능과 비슷할 것이라는 의미이다. 2. Underfitting vs Overfitting Underfitting Balanced Overfitting 과적합 training을 너무 적게 해서 학습 데이터 조차도 잘 못 맞추는 현상 그 사이 좋은 network 학습 데이터에 대해서는 잘 동작하지만 test 데이터에 .. 이전 1 다음