으죨

  • 홈
  • 태그
  • 방명록

CBOW 1

[딥러닝, 논문리뷰] Efficient Estimation of Word Representations in Vector Space(Word2Vec) - 2

https://arxiv.org/abs/1301.3781     Word2Vec1 이라고 불리는 논문이며, 기존에 텍스트 데이터를 벡터 방식으로 표현할 때 가장 많이 사용하였던 "원-핫 인코딩"방식 등을 채택한 "밀집표현" 방식 대신 "CBOW", "Skip-gram"을 사용하여 고차원으로 표현되던 벡터를 저차원으로 변환시키고 그에 따른 단어간의 가중치 값을 담은 실수 값으로 변형 → 단어간의 유사도를 비교할 수 있는 방법을 고안하여, 워드 임베딩을 효율적으로 향상시킨 평가를 받은 논문   1.  Abstract 대규모 데이터셋에서 효율적으로 단어 벡터 표현(Word Embeddings)을 학습하기 위한 두 가지 새로운 모델 아키텍처, Continuous Bag-of-Words (CBOW)와 Skip-g..

딥러닝, 논문 리뷰 2025.01.01
이전
1
다음
더보기
프로필사진

으죨

영업, 데이터분석, ML/DL 공부한 내용 정리하는 블로그

  • 분류 전체보기 (40)
    • 머신러닝 교과서_파이토치편 (3)
    • 딥러닝, 논문 리뷰 (33)
    • 프로젝트 (1)
    • 딥러닝 기초 수학 (1)
    • 멀티모달_프로젝트 (2)
    • CS기초 (0)

Tag

최적화, 논문리뷰, encoder, 자연어처리, llm, 퍼셉트론, Seq2Seq, MSE, deep learning, DeepLearning, 딥러닝, nlp, 손실함수, Attention, Deep Dive, BCE, 임베딩, 멀티모달, transformer, ViT,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/03   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp All rights reserved.

티스토리툴바