Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Google Cloud Platform
- Min-Max 알고리즘
- 허깅페이스
- 사회연결망분석
- 동적토픽모델링
- type-hint
- 토픽모델링
- 알파베타가지치기
- word2vec
- Holdout
- QANet
- 감성분석
- sbert
- dynamic topic modeling
- 의미연결망
- 구글클라우드플랫폼
- word representation
- topic modeling
- 머신러닝
- hugging face
- GCP
- sequential data
- ROC-AUC Curve
- degree centrality
- Meena
- 임베딩
- sensibleness
- Enriching Word Vectors with Subword Information
- semantic network
- 분류모델평가
Archives
- Today
- Total
목록QA (1)
Dev.log
QANet 논문리뷰
본 포스팅에서는 reading comprehension task에 대해 새로운 모델을 제시한 QANet: Combining Local Convolution with Global Self-Attention for Reading Comprehension에 대해 진행해보도록하겠습니다. 본 논문이 나오기 이전의 QA모델의 경우 RNN과 Attention이 결합된 모델이 있었으며, 이는 학습과 추론에 오랜 시간이 걸린다는 단점이 있었습니다. 따라서 본 논문은 RNN 대신 convolution과 self-attention을 결합한 모델을 제시하였으며, 성능은 비슷하면서 SQuAD 데이터셋에서 성능은 유지하면서 학습속도는 3~13배 빠르고 추론이 4 ~ 9배 빠른 결과를 보여주었습니다. 본 논문에서 활용된 데이터셋은..
논문리뷰
2022. 3. 7. 23:46