encoder 2

[딥러닝] AutoEncoder란? - 신경망 아키텍처

AutoEncoder란 무엇인지?말그대로 자동적으로 인코딩(encoding) 해준다는 뜻이다, 더 설명하자면 인코더를 통해 특정 입력 데이터를 압축하여 잠재 공간(latent space)으로 매핑하는 신경망이라고 생각하면 된다. 입력 데이터의 중요한 특징을 추출하고, 불필요한 정보를 제거하며 더 간결한 표현으로 변환하는 역할 AutoEncoder 구조1. 인코더입력 데이터를 저차원 잠재 공간으로 변환입력 계층, 은닉 계층(다수)로 구성 2. 디코더잠재 공간의 표현을 원본 데이터로 복원은닉 계층, 출력 계층으로 구성 3. 잠재 공간입력 데이타와 특성을 저차원의 벡터 형태로 표현인코더 ↔︎ 디코더 간 중간 레이어 아키텍처오토인코더의 학습 목표AutoEncoder는 재구성 손실(Reconstruction L..

[딥러닝, 논문리뷰] BERT모델과 HuggingFace Trainer를 이용한 KoBERT 감정분석

시작 전에..https://arxiv.org/abs/1810.04805논문원본 BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingWe introduce a new language representation model called BERT, which stands for Bidirectional Encoder Representations from Transformers. Unlike recent language representation models, BERT is designed to pre-train deep bidirectional representations from unlaarxiv.org 해당 포스팅은..