https://arxiv.org/abs/1301.3781 Word2Vec1 이라고 불리는 논문이며, 기존에 텍스트 데이터를 벡터 방식으로 표현할 때 가장 많이 사용하였던 "원-핫 인코딩"방식 등을 채택한 "밀집표현" 방식 대신 "CBOW", "Skip-gram"을 사용하여 고차원으로 표현되던 벡터를 저차원으로 변환시키고 그에 따른 단어간의 가중치 값을 담은 실수 값으로 변형 → 단어간의 유사도를 비교할 수 있는 방법을 고안하여, 워드 임베딩을 효율적으로 향상시킨 평가를 받은 논문 1. Abstract 대규모 데이터셋에서 효율적으로 단어 벡터 표현(Word Embeddings)을 학습하기 위한 두 가지 새로운 모델 아키텍처, Continuous Bag-of-Words (CBOW)와 Skip-g..