일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- word2vec
- 허깅페이스
- 머신러닝
- Min-Max 알고리즘
- 분류모델평가
- hugging face
- ROC-AUC Curve
- Holdout
- 의미연결망
- topic modeling
- 사회연결망분석
- type-hint
- GCP
- degree centrality
- sbert
- 알파베타가지치기
- 임베딩
- dynamic topic modeling
- 구글클라우드플랫폼
- 토픽모델링
- 동적토픽모델링
- QANet
- semantic network
- sensibleness
- 감성분석
- Enriching Word Vectors with Subword Information
- Meena
- Google Cloud Platform
- sequential data
- word representation
- Today
- Total
목록전체 글 (54)
Dev.log
Latent Direchlet Allocation(LDA) 토픽 모델링은 문서의 집합에서 핵심 토픽을 찾아내는 알고리즘을 의미합니다. 이는 검색 엔진, 고객 민원 시스템 등과 같이 문서의 주제를 알아내는 일이 중요한 곳에서 사용되기도 합니다. 잠재 디리클레 할당(Latent Dirichlet Allocation, LDA)은 이러한 토픽 모델링의 대표적인 알고리즘으로 주어진 문서들에서 어떠한 주제를 찾는 확률모델이라고 할 수 있습니다. 예를 들어 아래와 같은 문서들이 존재한다고 가정해봅시다. 문서1 = [Quantum Mechanics, Higgs Particle, Maxwell's Equation, Theory of Relativity] 문서2 = [Shakespeare, Tolstoy, Faust, 1..
시계열 데이터는 일정한 시간동안 순차적으로 발생한 관측치의 집합이라고 할 수 있습니다. 이러한 시계열데이터는 고정된 시간구간의 관측치여야하며, 이는 시간구간이 규칙적이여야합니다. 즉, 시계열의 어느 구간은 daily, 다른 구간은 monthly와 같은 다양한 구간이 동시에 존재해서는 안됩니다. Autoregressive Integrated Moving-Average Model ARIMA 모델(Autoregressive Integrated Moving-Average Model)은 시계열 예측모델중 하나이며, 이전 포스팅인 Transformer를 통한 시계열 데이터 예측에서 간략하게 설명한 바 있습니다. 해당포스팅에서는 AR, MV, ARMA의 모델들에 대한 간단한 설명이 적혀있으니 해당 모델들이 궁금할시,..
시계열 데이터란 시간에 대해 순차적으로 관측되는 데이터의 집합을 의미합니다. 일반적인 데이터 분석과정에서 독립변수(independent variable)를 이용해서 종속변수(dependent variable)을 예측하는 방법이 일반적이라면, 시계열 데이터 분석은 시간을 독립변수로 활용한다고 이해하면 될것 같습니다.이러한 시계열 데이터의 예시로는 센서 데이터, 주식 데이터, 스트림 데이터 등이 존재합니다. 시계열데이터는 기록 추세, 실시간 경고 등과 같은 예측 모델링을통해 분석을 할 수 있습니다. Abrupt Change : 데이터가 가파른 변동을 보이는지 Outliers : 다른 값들과 동떨어진 Outlier가 관측되는지 Trend : 측정 값이 시간의 흐름 에 따라 증감, 반복을 하는 일정한 Patte..
Hugging Face Hugging Face는 다양한 트랜스포머 모델과 학습스크립트를 제공하는 모듈입니다. 원래 PyTorch등과 같은 딥러닝 라이브러리 를 통해 layer나 module을 선언해주고 학습 스크립트 역시 전부 구현해야하지만 Hugging Face를 사용하면 이러한 수고를 덜 수 있다는 장점이 존재합니다. 즉, Hugging Face의 transformer를 통해 최첨단 사전 훈련 모델을 쉽게 다운로드하고 훈련할 수 있는 API를 사용할 수 있다고 이해할 수 있습니다. 또한 이런 사전 훈련된 모델을 사용하면 컴퓨팅 비용, 탄소 발자국을 줄이고 모델을 처음부터 훈련하는 시간을 절약할 수 있다는 장점이 존재합니다. Hugging Face의 transformers 모델들에서는 크게 아래와 같은..