Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Enriching Word Vectors with Subword Information
- 임베딩
- 감성분석
- sbert
- Google Cloud Platform
- hugging face
- 동적토픽모델링
- degree centrality
- 의미연결망
- 분류모델평가
- ROC-AUC Curve
- 토픽모델링
- type-hint
- word representation
- 구글클라우드플랫폼
- 머신러닝
- GCP
- Meena
- semantic network
- sequential data
- Holdout
- Min-Max 알고리즘
- sensibleness
- 알파베타가지치기
- 사회연결망분석
- word2vec
- QANet
- dynamic topic modeling
- 허깅페이스
- topic modeling
Archives
- Today
- Total
목록자연어처리 (1)
Dev.log
Word2Vec
Word2vec은 ‘word to vector’로, 단어를 벡터의 형태로 나타내려는 의미를 담고 있는데, 이는 단어를 벡터화하는 임베딩(embedding) 방법론이며 추론 기반의 분석기법이다. 단어를 추론하는 과정에서 신경망을 이용하고 이러한 과정에서 ‘Word2vec’방법론이 등장하였습니다. Vector 데이터를 다룰 때 데이터는 크게 스칼라(scalar)와 벡터 (vector)로 나누어집니다. 스칼라와 벡터는 물리학에서 어떠한 값의 ‘속성’을 나타 내는 개념이다. 스칼라는 수치로 표현할 수 있는 값으로, 대표적으로 넓이, 시간 온도 등이 있다. 벡터는 크기와 동시에 방향을 갖는 값으로 보통 좌표계에서 x,y,z 축으로 설명되며, 속도, 힘 등이 벡터 값이라 할 수 있다. 우리가 흔히 알고있는 머신러닝..
자연어처리
2022. 2. 18. 16:27