Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 알파베타가지치기
- Google Cloud Platform
- 의미연결망
- 분류모델평가
- QANet
- sensibleness
- semantic network
- 토픽모델링
- Holdout
- dynamic topic modeling
- GCP
- sequential data
- degree centrality
- ROC-AUC Curve
- 구글클라우드플랫폼
- hugging face
- 허깅페이스
- 사회연결망분석
- 머신러닝
- Min-Max 알고리즘
- word2vec
- topic modeling
- word representation
- type-hint
- sbert
- Enriching Word Vectors with Subword Information
- 감성분석
- 동적토픽모델링
- 임베딩
- Meena
Archives
- Today
- Total
목록자연어처리 (1)
Dev.log
Word2Vec
Word2vec은 ‘word to vector’로, 단어를 벡터의 형태로 나타내려는 의미를 담고 있는데, 이는 단어를 벡터화하는 임베딩(embedding) 방법론이며 추론 기반의 분석기법이다. 단어를 추론하는 과정에서 신경망을 이용하고 이러한 과정에서 ‘Word2vec’방법론이 등장하였습니다. Vector 데이터를 다룰 때 데이터는 크게 스칼라(scalar)와 벡터 (vector)로 나누어집니다. 스칼라와 벡터는 물리학에서 어떠한 값의 ‘속성’을 나타 내는 개념이다. 스칼라는 수치로 표현할 수 있는 값으로, 대표적으로 넓이, 시간 온도 등이 있다. 벡터는 크기와 동시에 방향을 갖는 값으로 보통 좌표계에서 x,y,z 축으로 설명되며, 속도, 힘 등이 벡터 값이라 할 수 있다. 우리가 흔히 알고있는 머신러닝..
자연어처리
2022. 2. 18. 16:27