Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- degree centrality
- 동적토픽모델링
- 구글클라우드플랫폼
- 분류모델평가
- 토픽모델링
- ROC-AUC Curve
- type-hint
- dynamic topic modeling
- 감성분석
- word2vec
- 임베딩
- sbert
- sequential data
- 의미연결망
- Holdout
- topic modeling
- Min-Max 알고리즘
- Enriching Word Vectors with Subword Information
- 사회연결망분석
- word representation
- sensibleness
- Meena
- semantic network
- QANet
- GCP
- hugging face
- 허깅페이스
- 알파베타가지치기
- Google Cloud Platform
- 머신러닝
Archives
- Today
- Total
목록자연어처리 (1)
Dev.log
Word2Vec
Word2vec은 ‘word to vector’로, 단어를 벡터의 형태로 나타내려는 의미를 담고 있는데, 이는 단어를 벡터화하는 임베딩(embedding) 방법론이며 추론 기반의 분석기법이다. 단어를 추론하는 과정에서 신경망을 이용하고 이러한 과정에서 ‘Word2vec’방법론이 등장하였습니다. Vector 데이터를 다룰 때 데이터는 크게 스칼라(scalar)와 벡터 (vector)로 나누어집니다. 스칼라와 벡터는 물리학에서 어떠한 값의 ‘속성’을 나타 내는 개념이다. 스칼라는 수치로 표현할 수 있는 값으로, 대표적으로 넓이, 시간 온도 등이 있다. 벡터는 크기와 동시에 방향을 갖는 값으로 보통 좌표계에서 x,y,z 축으로 설명되며, 속도, 힘 등이 벡터 값이라 할 수 있다. 우리가 흔히 알고있는 머신러닝..
자연어처리
2022. 2. 18. 16:27