일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- degree centrality
- topic modeling
- 감성분석
- 머신러닝
- sensibleness
- sequential data
- Holdout
- dynamic topic modeling
- 분류모델평가
- 알파베타가지치기
- 의미연결망
- Google Cloud Platform
- Min-Max 알고리즘
- QANet
- ROC-AUC Curve
- 구글클라우드플랫폼
- Meena
- 허깅페이스
- word representation
- type-hint
- GCP
- sbert
- semantic network
- 사회연결망분석
- Enriching Word Vectors with Subword Information
- hugging face
- 동적토픽모델링
- word2vec
- 임베딩
- 토픽모델링
- Today
- Total
목록전체 글 (54)
Dev.log
본 포스팅에서는 ELECTRA(Efficiently Learning an Encoder that Classfies Token Replacement Accuratly)에 대해 리뷰해 보도록 하겠습니다. 먼저, ELECTRA가 등장하기전 SOTA의 language model이 이용한 방식인 MLM(Masked Language Modeling) 방식에 대해 설명드리도록 하겠습니다. MLM(Masked Language Modeling) MLM방식은 주어진 문장 토큰들 중 전체의 15%만큼 마스킹을 하여 해당 토큰을 모델이 볼 수 없게한 뒤, 그 마스킹된 토큰의 원래 토큰을 맞추는 형식으로 학습이 도비니다. 하지만, 이는 마스킹된 토큰에 대해서만 학습이 이루어지기 때문에 주어진 예시의 15%정도밖에 사용을 하지 ..
본 포스팅에서는 SA(Simaulated Annelaing)알고리즘에 대해설명드리도록 하겠습니다. SA알고리즘은 전역 최적화 문제에 대한 확률론적 메타휴리스틱 알고리즘 입니다. Simaulated Annelaing알고리즘은 금속공학에서의 담금질 기법인 annelaing에서 아이디어를 얻었습니다, 즉 뜨거운 욕조에서의 재료의 냉각 과정에서 아이디어를 얻었다고 볼수있습니다. 먼저 Annelaing은 다음과 같은 의미를 지닙니다. 내부강도를 제거하기 위해 금속이나 유리를 가열하고 천천히 냉각시키는 방법. 금속재료를 가열한 다음 조금씩 냉각해 결정을 성장시켜 그 결함을 줄이는 작업. 열에 의해서 원자는 초기의 위치(내부 에너지가 극소점에 머무르는 상태)로부터 멀어져 에너지가 더욱 높은 상태로 추이됩니다. 천천히..
본 포스팅에서는 RoBERTa : A Robustly Optimized BERT Pretraing Model에 대해 소개해드리겠습니다. RoBERTa의 경우 BERT의 후속 모델로 유명합니다. BERT는 Bidirectional Encoder Representations from Transformers의 약자로 2018년 구글에서 발표한 언어모델중 한 개 입니다. BERT는 여러가지 자연어 task중 최고 성능을 기록하면서 모델이 처음 발표되었을때부터 지금까지 자연어처리분야에서 큰 화제를 불러왔던 모델입니다. 그리고 RoBERTa는 이러한 BERT의 몇가지 한계점에 대해 개선한 모델중 하나 입니다. RoBERTa의 경우 기존의 BERT가 underfitting되어있음일 지적하면서 등장한 모델입니다. 즉,..
본 포스팅에서는 reading comprehension task에 대해 새로운 모델을 제시한 QANet: Combining Local Convolution with Global Self-Attention for Reading Comprehension에 대해 진행해보도록하겠습니다. 본 논문이 나오기 이전의 QA모델의 경우 RNN과 Attention이 결합된 모델이 있었으며, 이는 학습과 추론에 오랜 시간이 걸린다는 단점이 있었습니다. 따라서 본 논문은 RNN 대신 convolution과 self-attention을 결합한 모델을 제시하였으며, 성능은 비슷하면서 SQuAD 데이터셋에서 성능은 유지하면서 학습속도는 3~13배 빠르고 추론이 4 ~ 9배 빠른 결과를 보여주었습니다. 본 논문에서 활용된 데이터셋은..