으죨

  • 홈
  • 태그
  • 방명록

Loss function 1

[딥러닝] BCE, MSE를 단순 분류, 회귀 문제에서만 사용했다고? - Deep Dive 1편(Loss Function편)

그냥 단순하게 생각했었다... 정말로 그렇게 생각했었다...  그런데... 그냥 왜 굳이? `MSE` 로도 충분히 손실 값을 구할 수 있지 않을까? 라는 물음이 시작되었는데. 이러한 갈증을 해결 하기 위해서, 단순 연산 값에 대입시키면서 왜 분류 문제에는 `BCE` (이진)를 사용하는지에 대해서 정리를 해 보았다.분류는 어떻게 보면 확률분포그렇다! 우리가 활성화 함수를 분석하거나 번역 모델을 설계할 때도, 입력값이 정답에 얼마나 가까운지를 명확한 수치로 알기는 어렵다. 그래서 대부분의 경우, 입력값이 정답에 가까울 확률을 예측하는 방식으로 설계하게 된다.상황을 가정해서 생각해보자.\(sigmoid\) 함수를 통과한 입력 값이 0.6일 경우를 생각해보자$$f(y) =\begin{cases}1, & \tex..

딥러닝, 논문 리뷰 2025.01.01
이전
1
다음
더보기
프로필사진

으죨

영업, 데이터분석, ML/DL 공부한 내용 정리하는 블로그

  • 분류 전체보기 (40)
    • 머신러닝 교과서_파이토치편 (3)
    • 딥러닝, 논문 리뷰 (33)
    • 프로젝트 (1)
    • 딥러닝 기초 수학 (1)
    • 멀티모달_프로젝트 (2)
    • CS기초 (0)

Tag

nlp, transformer, deep learning, encoder, llm, BCE, DeepLearning, MSE, Attention, 멀티모달, 손실함수, ViT, 딥러닝, 최적화, 퍼셉트론, Seq2Seq, 자연어처리, 임베딩, Deep Dive, 논문리뷰,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/03   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp All rights reserved.

티스토리툴바