으죨

  • 홈
  • 태그
  • 방명록

AdaGrad 1

[딥러닝] 최적화와 경사하강법 Deep Dive(모멘텀, AdaGrad, RMSProp, NAG, Adam) - 2

지난 시간에 이어 옵티마이저의 종류들과 성능들에 대해서 조금 더 딥하게 들어가보려고 한다.  대표 기법들인 Momentum, Adagrad, RMSProp, Adam, NAG 까지만 정리하려고 한다.기존 GD, SGD의 문제점  수렴 속도 문제두 방법 모두 수렴 속도가 느리거나 극단적으로 빠르지만, 안정성을 가지지 못하는 경우가 많습니다.`GD`는 전체 데이터셋에 대해 매 번 계산을 하여 파라미터를 업데이트를 하여 안정성을 가지지만 학습 속도가 매우 느린 단점이 있고, `SGD`는 한 개 밑 하위의 최소 단위의 데이터만을 이용해 파라미터를 업데이트를 하기에 속도는 빠르지만 학습 안정성이 좋지 않은 단점이 있습니다.학습률 설정 문제`GD`, `SGD` 두 방법 모두 극단적인 학습 방법으로 인해 학습률 지정..

딥러닝, 논문 리뷰 2025.01.17
이전
1
다음
더보기
프로필사진

으죨

영업, 데이터분석, ML/DL 공부한 내용 정리하는 블로그

  • 분류 전체보기 (40)
    • 머신러닝 교과서_파이토치편 (3)
    • 딥러닝, 논문 리뷰 (33)
    • 프로젝트 (1)
    • 딥러닝 기초 수학 (1)
    • 멀티모달_프로젝트 (2)
    • CS기초 (0)

Tag

DeepLearning, nlp, transformer, ViT, MSE, encoder, 딥러닝, 최적화, 자연어처리, llm, 손실함수, 임베딩, 논문리뷰, 퍼셉트론, Seq2Seq, BCE, Deep Dive, deep learning, 멀티모달, Attention,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/03   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp All rights reserved.

티스토리툴바