Tag
#딥러닝
#deep learning
#자연어처리
#nlp
#논문리뷰
#transformer
#DeepLearning
#멀티모달
#BCE
#ViT
#Deep Dive
#Seq2Seq
#손실함수
#퍼셉트론
#MSE
#llm
#임베딩
#encoder
#Attention
#최적화
#논문
#문장 유사도
#sbert
#상품생성
#잔차연결
#distillation knowledge
#증류모델
#소수점 공부
#craw4llm
#deep. learning
#트랜스포머 1편
#피드 포워드 뉴럴 네트워크
#r1-zero
#layer normalization
#deepseek-r1
#deepseek
#깊이보기
#qkv
#memory layers
#언어태스크
#저차원
#단어유사성
#머신러닝 교과서-파이토치편
#압축복구
#f1_score
#vision language
#VLM
#gpt-1
#residual connection
#DeepDive
#Attention Is All You Need
#분류모델
#단층퍼셉트론
#Transfomer
#ResNet50
#허깅페이스
#kobert
#포지셔널 인코딩
#skip-gram
#CBOW
#딥러닝기초
#GPT-3
#GPT-2
#BERT
#활성화함수
#positional encoding
#미니배치
#데이터압축
#경사하강법
#사이킷런
#파이토치
#Activation function
#LSTM
#Loss function
#딥다이브
#AdaGrad
#Batch Normalization
#XOR게이트
#RNN
#n-gram
#비지도학습
#word2vec
#정보이론
#autoencoder
#분류기
#FFN
#기초수학
#양자화
#CCE
#gru
#평가지표
#MLP
#Gradient
#HF
#metrics
#편미분
#부동소수점
#Decoder
#옵티마이저
#elmo
#고차원
#STS
#자연어
#Lora
#Momentum
#Pos
#GPT
#경량화
#Sequence
#정규화
#Mae
#엔트로피
#밑바닥
#vector
#인덱스
#미분
#RAG
#r1
#Vision
#엘모
#선형대수학
#clip
#프로젝트
#비전
#트랜스포머
#알고리즘