쉬운 생각, 꾸준한 노력

  • 홈
  • 태그
  • 방명록

Optimizer 1

Intro to Deep Learning(3)

확률 경사 하강법Stochastic Gradient Descent 앞선 두 강의에서 dense 레이어의 누적으로 어떻게 완전 결합fully-connected된 신경망을 만드는지 학습했습니다. 처음 만들어질 때, 모든 신경망의 가중치weight는 랜덤하게 설정됩니다. 신경망은 아직 아무것도 "알지" 못하는 것이지요. 이번 수업에서 여러분은 어떻게 신경망을 학습시키는지 배울 것입니다. 또는, 신경망이 어떻게 학습"하는지"를요. 모든 기계 학습 작업에서 그러하듯, 먼저 학습 데이터를 설정하는 것으로 시작합니다. 학습 데이터의 각 예시는 몇 개의 특징(입력 값)들과 예상 타겟(출력 값)으로 구성되어 있습니다. 신경망을 학습시킨다는 것은 특징을 타겟으로 변환할 수 있는 방식으로 그 가중치를 조정한다는 것을 의미합..

STUDY LOG/Kaggle 2021.09.30
이전
1
다음
더보기
프로필사진

쉬운 생각, 꾸준한 노력

  • 분류 전체보기 (40)
    • STUDY LOG (33)
      • Data structures (0)
      • Algorithms (2)
      • C\C++ (5)
      • Python (0)
      • AI\ML (1)
      • Operating Systems (2)
      • Kaggle (23)
      • Linear Algebra (0)
    • 메타버스 (2)
    • 기타 개발관련 (3)
    • 일상 (2)

Tag

Data Analysis, 판다스, kaggle courses, pandas, 머신러닝, 기계학습, 캐글 딥러닝, deep learning, 인공지능, Artificial Intelligence, C++, Kaggle, 딥러닝, 캐글, Machine Learning, pandas 시리즈, 캐글 코스 번역, 머신러닝기초, 캐글 Pandas, 인공지능기초,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/01   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바