1. 기술/머신러닝, 딥러닝 24

Feature Importance

Feature Importance and Permutation Feature Importance reference : Feature selection : feature importance vs permutation importance Permutation feature importance(sklearn.org) The Mathematics of Decision Trees, Random Forest and Feature Importance in Scikit-learn and Spark 머신러닝의 해석 2편 - 1. 트리 기반 모델의 Feature Importance 속성 랜덤 포레스트에서의 변수 중요도(Variable Importance) 3가지 Feature Importance(변수 중요도) - 트리 기..

sklearn - classification_report()

sklearn.metrics.classification_report reference : scikit-learn.org, sklearn.metrics.classification_report, document scikit-learn.org,sklearn.metrics.f1_score, document stackoverflow, How to interpret classification report of scikit-learn?,LaSul Answered Accuracy(정확도), Recall(재현율), Precision(정밀도), 그리고 F1 Score, eunsukimme Document : sklearn.metrix.classification_report(y_true, y_pred, *, Labels=N..

CycleGAN vs StarGAN

background Conditional GAN - latent vector(random)와 함께 Condition(y)을 받을 수 있다(무작위가 아닌 목표로 하는 이미지를 생성) pix2pix - 이미지(X, Condition)를 받아서 이미지를 돌려준다. y(label, condition)를 따로 받는 것은 아니지만 X 자체를 Condition으로 입력 받아 목표로하는 이미지를 생성하기 때문에 Conditional GAN에 기반을 둔다고 볼 수 있다. CycleGAN , StarGAN은 모두 Conditional GAN 기반의 pix2pix 구조를 사용한다. CycleGAN은 이미지를 받아서 이미지를 돌려주고, StarGAN은 이미지와 y(도메인 Vector)를 추가로 받아서 y에 맞는 이미지를 돌려..

StarGAN v2

StarGAN v2 - Basic Concept reference : github/clovaai/stargan-v2 github/yunjey/stargan StarGAN v2: Diverse Image Synthesis for Multiple Domains 도메인과 스타일, 모두 잡았다! StarGAN v2 기존 StarGAN는 하나의 모델로 하나의 도메인에 대해 학습, Generate하는 것이 아닌, 하나의 모델로 다양한 도메인을 표현해낼 수 있었다면 StarGAN v2는 이에 더해 여러 도메인을 결합하여 동시에 표현해낼 수 있다. 예를 들어, 기존의 StarGAN은 입력받은 하나의 이미지가 서로 다른 다양한 도메인을 표현하도록 가짜 이미지를 생성해낸다. 출처 : StarGAN - Official/RE..

StyleGAN v2-ada

StyleGAN v2-ada - Basic Concept reference : StyleGAN2를 이용한 성격 유형별 얼굴 생성 모델 연구 개발 과정 공개! [StyleGan2-ada 실습] AFHQ 데이터 셋 이용해서 stylegan2-ada 학습하기 2 [Paper review]StyleGAN2 github/NVlabs/stylegan2-ada-pytorch styleGAN2-ada는 기존 styleGAN의 일명 '물방울 현상'을 발생시키는 AdaIN(Adaptive Instance Normalization)을 정규화부분을 수정하고(StyleGAN2) ADA(Adaptive Discriminator Augmentation, 데이터 증강기법)을 추가로 활용하여 데이터가 부족한 상황에서도 좋은 성능을 낼..

GAN - Unpaired Image to Image Translation

GAN : Unpaired Image to Image Translation reference: Youtube | [MODUCON 2019] 보다 유연한 이미지 변환을 하려면 - 이광희 PPT | 보다 유연한 이미지 변환을 하려면 - 이광희 1. Unimodal(one-to-one) Translation 하나의 도메인, 하나의 스타일에 대한 변환 Type A : Cycle Consistency Loss CycleGAN (ICCV, 2017) DiscoGAN (ICCV, 2017) Type B : Shared Latent space Assumption UNIT (NIPS,2017) 2. Multi-modal Tranlation 하나의 도메인 내에서 다양한 스타일을 표현 Partially Shared Late..

StarGAN

StarGAN - Basic Concept reference : github/clovaai/stargan-v2 github/yunjey/stargan [코드리뷰]StarGAN 도메인과 스타일, 모두 잡았다! StarGAN v2 [논문리뷰]StarGAN:Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation StarGAN:Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation 하나의 모델(GAN)이 하나의 도메인(특정 스타일)에 대해서만 학습하는 것이 아닌 여러 도메인을 한번에 학습하여 결과적으로 단일 모델만으로 다양한..

GAN

GAN - Basic Concept reference : GAN의 활용 사례와 발전 방향 ConditionalGAN(CGAN) 생성적 적대 신경망 논문으로 본 적대적 생성 신경망 GAN NEVER Engineering | 1시간만에 GAN(Generative Adversarial Network) 완전 정복하기 GAN(Generative Adversarial Network)은 특정 정보를 생성(Generative)하는 항과 이와 대립(Adversarial)하는 항으로 이루어진 망(Network)을 뜻한다. Training 생성자 모델 G(Generative)는 훈련 데이터 X 분포를 흉내내도록 훈련한다 판별자 모델 D(Discriminator, Adversarial)는 생성자 모델 G가 생성한 데이터가 진..

ROC Curve

Precision and Recall in an anomaly detection situation reference : document : sklearn.metrics.plot_roc_curve Classification - ROC & AUC ROC Curve, devopedia Measuring Performance: AUC(AUROC) ROC 커브는 False Positive Rate(FPR)을 기준으로 True Positive Rate(TPR)의 변화도를 표현한다. 아래 첫번째 분포곡선에서 임계값(beta)이 이동함에 따라 TPR과 FPR이 변화한다는 것을 예상해볼 수 있다. 임계값이 우측으로 이동하면 FPR과 TPR 모두 줄어든다. 반대로 임계값이 좌측으로 이동하면 FPR과 TPR모두 커진다. 즉..

LGBM

LGBM(Light Gradient Boosting Machine) LightGBM's documentation LightGBM 주요 파라미터 정리 LightGBM이란? LGBM은 'Light'(==fast)하고 또 'Light'(==low memory)하다. 그만큼 또 예민하다는 단점이 있다. 예민하다는 것은 과적합(Overfitting)되기 쉽다는 것이며 1만 개 이하의 적은 데이터셋을 다루기에는 적합하지 않은 모델이다. LGBM을 사용할 때에는 과적합에 특히 유의해야 하며 아래의 하이퍼파라미터들을 통해 학습을 조절할 필요가 있다. max_depth Tree의 깊이가 깊을 수록 당연하게도 train set에 더 가까운 가중치를 학습하게 된다. 다른 모델을 사용할 때보다 현저하게 max_depth를 줄..

1 2 3