Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- semantic network
- Google Cloud Platform
- Meena
- 사회연결망분석
- degree centrality
- GCP
- 감성분석
- 동적토픽모델링
- ROC-AUC Curve
- QANet
- dynamic topic modeling
- Enriching Word Vectors with Subword Information
- 알파베타가지치기
- 허깅페이스
- 임베딩
- sensibleness
- 의미연결망
- Holdout
- sequential data
- 토픽모델링
- topic modeling
- 머신러닝
- Min-Max 알고리즘
- word representation
- type-hint
- 분류모델평가
- sbert
- word2vec
- 구글클라우드플랫폼
- hugging face
Archives
- Today
- Total
목록Glove (1)
Dev.log
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bZx7aw/btrvqcbvJWE/SMakaZEKTsVesvbEDp4JmK/img.png)
본 포스팅에서는 워드 임베딩(Word embedding)에 관련해서 2014년 Stanford University에서 발표한 논문인 Glove: Global Vectors for Word Representation에 대해 진행해 보도록 하겠습니다. 워드 임베딩에서 대표적으로 쓰이는 대표적으로 2가지 방법이 있습니다. LSA와 같이 말뭉치 전체에 대해 어떠한 통계적인 정보를 활용하는 방식이 있고, Word2Vec과 같이 단어들 간의 유사도를 반영해서 저차원 벡터공간으로 임베딩을 하는 방식이 있습니다. LSA와 같이 통계 기반 방식은 문서 전체에 대한 통계 정보를 잘반영해서 모델링을 할 수 있지만 단어 혹은 문서 간 유사도 측정이 어렵다는 단점이 존재합니다. 반면 Word2Vec과 같은 방식은 유사도 기반의..
논문리뷰
2022. 3. 7. 22:30