Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 머신러닝
- 토픽모델링
- Google Cloud Platform
- type-hint
- 사회연결망분석
- word representation
- hugging face
- topic modeling
- semantic network
- dynamic topic modeling
- 허깅페이스
- 의미연결망
- degree centrality
- Holdout
- sensibleness
- Enriching Word Vectors with Subword Information
- 알파베타가지치기
- Meena
- Min-Max 알고리즘
- GCP
- 감성분석
- QANet
- 구글클라우드플랫폼
- ROC-AUC Curve
- 임베딩
- sbert
- 분류모델평가
- sequential data
- word2vec
- 동적토픽모델링
Archives
- Today
- Total
목록QANet (1)
Dev.log
QANet 논문리뷰
본 포스팅에서는 reading comprehension task에 대해 새로운 모델을 제시한 QANet: Combining Local Convolution with Global Self-Attention for Reading Comprehension에 대해 진행해보도록하겠습니다. 본 논문이 나오기 이전의 QA모델의 경우 RNN과 Attention이 결합된 모델이 있었으며, 이는 학습과 추론에 오랜 시간이 걸린다는 단점이 있었습니다. 따라서 본 논문은 RNN 대신 convolution과 self-attention을 결합한 모델을 제시하였으며, 성능은 비슷하면서 SQuAD 데이터셋에서 성능은 유지하면서 학습속도는 3~13배 빠르고 추론이 4 ~ 9배 빠른 결과를 보여주었습니다. 본 논문에서 활용된 데이터셋은..
논문리뷰
2022. 3. 7. 23:46