으죨

  • 홈
  • 태그
  • 방명록

llm 2

[딥러닝, 논문리뷰] CRAW4LLM: Efficient Web Crawling for LLM Pretraining

https://arxiv.org/abs/2502.13347v1 Craw4LLM: Efficient Web Crawling for LLM PretrainingWeb crawl is a main source of large language models' (LLMs) pretraining data, but the majority of crawled web pages are discarded in pretraining due to low data quality. This paper presents Crawl4LLM, an efficient web crawling method that explores the webarxiv.org 1. AbstractCraw4LLM은 대형 언어 모델(LLM)의 사전 훈련을 위한 ..

딥러닝, 논문 리뷰 2025.02.25

[딥러닝] Word2Vec 논문 리뷰 전 분석 - 1

Word2Vec1. 희소 & 밀집 표현대표적인 기법 → 원-핫 인코딩대상이 되는 범주형 변수는 해당 변수 범주 개수(n)만큼의 신규 변수로 쪼개어짐고차원 행렬 형태로 변환되며 고유 이진 벡터로 표현됨으로 범주간 구분을 명확히함, 그러나 각 단어 벡터간 유의미한 유사성을 표현할 수 없는 단점이 있음왜 희소 표현인지?작은 단어의 집합 예제를 통해 표현예제단어 집합: ["I", "love", "NLP", "ChatGPT", "AI"] 이 있다고 가정할 때 이것을 원-핫 벡터로 표현한다면 단어원-핫 벡터I[1, 0, 0, 0, 0]love[0, 1, 0, 0, 0]NLP[0, 0, 1, 0, 0]ChatGPT[0, 0, 0, 1, 0]AI[0, 0, 0, 0, 1] 각 벡터는 5차원이며, I가 해당되는 단어만 ..

딥러닝, 논문 리뷰 2025.01.01
이전
1
다음
더보기
프로필사진

으죨

영업, 데이터분석, ML/DL 공부한 내용 정리하는 블로그

  • 분류 전체보기 (40)
    • 머신러닝 교과서_파이토치편 (3)
    • 딥러닝, 논문 리뷰 (33)
    • 프로젝트 (1)
    • 딥러닝 기초 수학 (1)
    • 멀티모달_프로젝트 (2)
    • CS기초 (0)

Tag

임베딩, encoder, 논문리뷰, ViT, BCE, 퍼셉트론, Seq2Seq, DeepLearning, nlp, llm, 손실함수, 딥러닝, 자연어처리, 멀티모달, Attention, transformer, deep learning, MSE, Deep Dive, 최적화,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/03   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp All rights reserved.

티스토리툴바