으죨

  • 홈
  • 태그
  • 방명록

Batch Normalization 1

[딥러닝, 논문리뷰] Batch-Normalization 꼼꼼하게 읽어보기 / Layer Normalization 훑어보기

https://arxiv.org/abs/1502.03167 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate ShiftTraining Deep Neural Networks is complicated by the fact that the distribution of each layer's inputs changes during training, as the parameters of the previous layers change. This slows down the training by requiring lower learning rates and careful paramarxiv.org 2015년 발..

딥러닝, 논문 리뷰 2025.02.01
이전
1
다음
더보기
프로필사진

으죨

영업, 데이터분석, ML/DL 공부한 내용 정리하는 블로그

  • 분류 전체보기 (40)
    • 머신러닝 교과서_파이토치편 (3)
    • 딥러닝, 논문 리뷰 (33)
    • 프로젝트 (1)
    • 딥러닝 기초 수학 (1)
    • 멀티모달_프로젝트 (2)
    • CS기초 (0)

Tag

llm, 퍼셉트론, Deep Dive, nlp, 최적화, BCE, 딥러닝, 임베딩, encoder, 자연어처리, MSE, 논문리뷰, DeepLearning, Seq2Seq, ViT, Attention, 손실함수, deep learning, 멀티모달, transformer,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/03   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp All rights reserved.

티스토리툴바