Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 동적토픽모델링
- sequential data
- word representation
- 임베딩
- 머신러닝
- Meena
- hugging face
- ROC-AUC Curve
- Holdout
- 알파베타가지치기
- sensibleness
- word2vec
- 분류모델평가
- 감성분석
- 허깅페이스
- topic modeling
- Min-Max 알고리즘
- 토픽모델링
- degree centrality
- Google Cloud Platform
- dynamic topic modeling
- 의미연결망
- type-hint
- 구글클라우드플랫폼
- semantic network
- sbert
- Enriching Word Vectors with Subword Information
- QANet
- GCP
- 사회연결망분석
Archives
- Today
- Total
목록word representation (1)
Dev.log
Glove 논문리뷰(수정중)
본 포스팅에서는 워드 임베딩(Word embedding)에 관련해서 2014년 Stanford University에서 발표한 논문인 Glove: Global Vectors for Word Representation에 대해 진행해 보도록 하겠습니다. 워드 임베딩에서 대표적으로 쓰이는 대표적으로 2가지 방법이 있습니다. LSA와 같이 말뭉치 전체에 대해 어떠한 통계적인 정보를 활용하는 방식이 있고, Word2Vec과 같이 단어들 간의 유사도를 반영해서 저차원 벡터공간으로 임베딩을 하는 방식이 있습니다. LSA와 같이 통계 기반 방식은 문서 전체에 대한 통계 정보를 잘반영해서 모델링을 할 수 있지만 단어 혹은 문서 간 유사도 측정이 어렵다는 단점이 존재합니다. 반면 Word2Vec과 같은 방식은 유사도 기반의..
논문리뷰
2022. 3. 7. 22:30