2021/09/30 2

Intro to Deep Learning(4)

과적합Overfitting과 과소적합Underfitting 추가 용량이나 조기 정지로 품질을 향상시키기 소개 지난 시간의 예시로 돌아가서, Keras는 모델을 학습시켰다는 것을 학습 기록과 에폭에 따른 손실 측정 값에 보관할 것입니다. 이번 시간에는 이 학습 곡선을 어떻게 해석할 것인가와 그것을 어떻게 모델 개발 가이드로 사용할 수 있는지를 배울 것입니다. 특히, 학습 곡선에서 과적합과 과소적합의 증거를 살펴보고 이를 고치기 위한 몇 가지 전략을 살펴볼 것입니다. 학습 곡선The Learning Curves 해석하기 여러분은 아마 학습 데이터의 정보가 두 종류라고 생각할 것입니다. 바로, 시그널Signal과 노이즈Noise이죠. 시그널은 일반화하는 부분입니다. 즉, 여러분의 모델이 새로운 데이터로부터 예..

STUDY LOG/Kaggle 2021.09.30

Intro to Deep Learning(3)

확률 경사 하강법Stochastic Gradient Descent 앞선 두 강의에서 dense 레이어의 누적으로 어떻게 완전 결합fully-connected된 신경망을 만드는지 학습했습니다. 처음 만들어질 때, 모든 신경망의 가중치weight는 랜덤하게 설정됩니다. 신경망은 아직 아무것도 "알지" 못하는 것이지요. 이번 수업에서 여러분은 어떻게 신경망을 학습시키는지 배울 것입니다. 또는, 신경망이 어떻게 학습"하는지"를요. 모든 기계 학습 작업에서 그러하듯, 먼저 학습 데이터를 설정하는 것으로 시작합니다. 학습 데이터의 각 예시는 몇 개의 특징(입력 값)들과 예상 타겟(출력 값)으로 구성되어 있습니다. 신경망을 학습시킨다는 것은 특징을 타겟으로 변환할 수 있는 방식으로 그 가중치를 조정한다는 것을 의미합..

STUDY LOG/Kaggle 2021.09.30