Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Min-Max 알고리즘
- 사회연결망분석
- Holdout
- topic modeling
- 동적토픽모델링
- word2vec
- 감성분석
- 임베딩
- 알파베타가지치기
- 구글클라우드플랫폼
- semantic network
- 허깅페이스
- sequential data
- 머신러닝
- Google Cloud Platform
- Enriching Word Vectors with Subword Information
- sensibleness
- ROC-AUC Curve
- 의미연결망
- GCP
- dynamic topic modeling
- sbert
- hugging face
- 분류모델평가
- 토픽모델링
- degree centrality
- QANet
- Meena
- type-hint
- word representation
Archives
- Today
- Total
목록Glove (1)
Dev.log
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bZx7aw/btrvqcbvJWE/SMakaZEKTsVesvbEDp4JmK/img.png)
본 포스팅에서는 워드 임베딩(Word embedding)에 관련해서 2014년 Stanford University에서 발표한 논문인 Glove: Global Vectors for Word Representation에 대해 진행해 보도록 하겠습니다. 워드 임베딩에서 대표적으로 쓰이는 대표적으로 2가지 방법이 있습니다. LSA와 같이 말뭉치 전체에 대해 어떠한 통계적인 정보를 활용하는 방식이 있고, Word2Vec과 같이 단어들 간의 유사도를 반영해서 저차원 벡터공간으로 임베딩을 하는 방식이 있습니다. LSA와 같이 통계 기반 방식은 문서 전체에 대한 통계 정보를 잘반영해서 모델링을 할 수 있지만 단어 혹은 문서 간 유사도 측정이 어렵다는 단점이 존재합니다. 반면 Word2Vec과 같은 방식은 유사도 기반의..
논문리뷰
2022. 3. 7. 22:30