1. 기술 65

GAN - Unpaired Image to Image Translation

GAN : Unpaired Image to Image Translation reference: Youtube | [MODUCON 2019] 보다 유연한 이미지 변환을 하려면 - 이광희 PPT | 보다 유연한 이미지 변환을 하려면 - 이광희 1. Unimodal(one-to-one) Translation 하나의 도메인, 하나의 스타일에 대한 변환 Type A : Cycle Consistency Loss CycleGAN (ICCV, 2017) DiscoGAN (ICCV, 2017) Type B : Shared Latent space Assumption UNIT (NIPS,2017) 2. Multi-modal Tranlation 하나의 도메인 내에서 다양한 스타일을 표현 Partially Shared Late..

Scheduling

Reference : 스케줄링 - 배치처리, 시분할시스템, 멀티테스킹, 멀티 프로그래밍 운영체제의 발전사 - 배치 처리 시스템, 시분할 시스템, 멀티 테스킹 운영체제 - 스케줄링 (배치 처리, 시분할 시스템, 멀티 프로그래밍) Scheduling 서버의 실시간 시스템이 일관된 처리 속도를 갖추도록 하는 최적화 알고리즘 Batch 시스템 개발자의 설계에 따라 프로그램 흐름을 결정 First In, Fist Out 순차적 실행 방식 (병렬 처리) Event-Driven 이벤트 발생시 프로그램 흐름 결정 Time Sharing 동시에 다중 사용자 지원을 위해 컴퓨터 응답 시간을 최소화 하여 동시에 여러 사용자를 수용할 수 있도록 하는 방식 Multi-tasking 단일 CPU에서 여러 응용 프로그램이 동시에 ..

StarGAN

StarGAN - Basic Concept reference : github/clovaai/stargan-v2 github/yunjey/stargan [코드리뷰]StarGAN 도메인과 스타일, 모두 잡았다! StarGAN v2 [논문리뷰]StarGAN:Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation StarGAN:Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation 하나의 모델(GAN)이 하나의 도메인(특정 스타일)에 대해서만 학습하는 것이 아닌 여러 도메인을 한번에 학습하여 결과적으로 단일 모델만으로 다양한..

GAN

GAN - Basic Concept reference : GAN의 활용 사례와 발전 방향 ConditionalGAN(CGAN) 생성적 적대 신경망 논문으로 본 적대적 생성 신경망 GAN NEVER Engineering | 1시간만에 GAN(Generative Adversarial Network) 완전 정복하기 GAN(Generative Adversarial Network)은 특정 정보를 생성(Generative)하는 항과 이와 대립(Adversarial)하는 항으로 이루어진 망(Network)을 뜻한다. Training 생성자 모델 G(Generative)는 훈련 데이터 X 분포를 흉내내도록 훈련한다 판별자 모델 D(Discriminator, Adversarial)는 생성자 모델 G가 생성한 데이터가 진..

ROC Curve

Precision and Recall in an anomaly detection situation reference : document : sklearn.metrics.plot_roc_curve Classification - ROC & AUC ROC Curve, devopedia Measuring Performance: AUC(AUROC) ROC 커브는 False Positive Rate(FPR)을 기준으로 True Positive Rate(TPR)의 변화도를 표현한다. 아래 첫번째 분포곡선에서 임계값(beta)이 이동함에 따라 TPR과 FPR이 변화한다는 것을 예상해볼 수 있다. 임계값이 우측으로 이동하면 FPR과 TPR 모두 줄어든다. 반대로 임계값이 좌측으로 이동하면 FPR과 TPR모두 커진다. 즉..

LGBM

LGBM(Light Gradient Boosting Machine) LightGBM's documentation LightGBM 주요 파라미터 정리 LightGBM이란? LGBM은 'Light'(==fast)하고 또 'Light'(==low memory)하다. 그만큼 또 예민하다는 단점이 있다. 예민하다는 것은 과적합(Overfitting)되기 쉽다는 것이며 1만 개 이하의 적은 데이터셋을 다루기에는 적합하지 않은 모델이다. LGBM을 사용할 때에는 과적합에 특히 유의해야 하며 아래의 하이퍼파라미터들을 통해 학습을 조절할 필요가 있다. max_depth Tree의 깊이가 깊을 수록 당연하게도 train set에 더 가까운 가중치를 학습하게 된다. 다른 모델을 사용할 때보다 현저하게 max_depth를 줄..

xgboost

XGBoost(eXtreme Gradient Boost) 캐글로 배우는 머신러닝 #10 XGBoost 파이썬 Scikit-Learn 형식 XGBoost 파라미터 XGBoost 알고리즘의 개념 이해 머신러닝 앙상블(ensemble) xgboost란? XGBoost는 기존 Gradient Boosting 방식의 느리고, training set에 overfitting되는 문제를 어느 정도 해결한 고성능 ensemble 기법이다. 규제 Overfitting을 방지하도록 하이퍼파라미터를 통해 규제할 수 있다. reg_alpha : L1 규제 reg_lambda : L2 규제 early stopping 주로 딥러닝 학습에 파라미터로 사용되는 early stopping을 지원한다. model.fit(X_train, ..

sklearn - GridSearchCV

GridSearchCV reference : sklearn.model_selection.GridSearchCV(scikit-learn.org) 모형최적화, 데이터사이언스스쿨 [Chapter 4. 분류] 랜덤포레스트(Random Forest) 머신러닝 모델의 하이퍼파라미터를 조정하는 일은 매우 까다롭다. 아주 미묘한 파라미터 값 변화가 모델의 성능을 좌우하고, 모델마다 다양한 파라미터들이 유기적으로 얽혀있기 때문이다. GridSearchCV를 통하면 다양한 하이퍼파라미터 값을 미리 입력하고, 최적의 값과 해당 값으로 표현된 모델 정확도를 돌려받을 수 있다. from sklearn.model_selection import GridSearchCV params = {'n_estimators' : [10, 100..

sklearn - GradientBoostingClassifier

GradientBoostingClassifier Gradient Boosting Model sklearn.ensemble.GradientBoostingClassifier 지도학습 - 그래디언트 부스팅 2.3.6 결정 트리의 앙상블, 텐서 플로우 블로그 GradientBoosting 모델은 RandomForest 모델과 달리 learning_rate를 통해 오차를 줄여나가는 학습 방식을 사용한다. RandomForest 모델은 말그대로 Random하게 Bagging, Tree를 생성한다. 하지만 GradientBoosting 모델은 Tree를 생성할 때마다 이전 Tree보다 오차를 줄이게 된다. 또한 개별 Tree의 깊이는 얕게 만들어내면서 오차가 줄어든 Tree를 계속해서 연결해나가는 구조다.(때문에, ..

1 2 3 4 5 ··· 7