#딥러닝 #deep learning #자연어처리 #nlp #논문리뷰 #transformer #DeepLearning #멀티모달 #BCE #ViT #Deep Dive #Seq2Seq #손실함수 #퍼셉트론 #MSE #llm #임베딩 #encoder #Attention #최적화 #논문 #문장 유사도 #sbert #상품생성 #잔차연결 #distillation knowledge #증류모델 #소수점 공부 #craw4llm #deep. learning #트랜스포머 1편 #피드 포워드 뉴럴 네트워크 #r1-zero #layer normalization #deepseek-r1 #deepseek #깊이보기 #qkv #memory layers #언어태스크 #저차원 #단어유사성 #머신러닝 교과서-파이토치편 #압축복구 #f1_score #vision language #VLM #gpt-1 #residual connection #DeepDive #Attention Is All You Need #분류모델 #단층퍼셉트론 #Transfomer #ResNet50 #허깅페이스 #kobert #포지셔널 인코딩 #skip-gram #CBOW #딥러닝기초 #GPT-3 #GPT-2 #BERT #활성화함수 #positional encoding #미니배치 #데이터압축 #경사하강법 #사이킷런 #파이토치 #Activation function #LSTM #Loss function #딥다이브 #AdaGrad #Batch Normalization #XOR게이트 #RNN #n-gram #비지도학습 #word2vec #정보이론 #autoencoder #분류기 #FFN #기초수학 #양자화 #CCE #gru #평가지표 #MLP #Gradient #HF #metrics #편미분 #부동소수점 #Decoder #옵티마이저 #elmo #고차원 #STS #자연어 #Lora #Momentum #Pos #GPT #경량화 #Sequence #정규화 #Mae #엔트로피 #밑바닥 #vector #인덱스 #미분 #RAG #r1 #Vision #엘모 #선형대수학 #clip #프로젝트 #비전 #트랜스포머 #알고리즘