반응형 feature selection2 [python] XGBoost : Dimension Reduction,Feature selection using Feature importance or BorutaShap XGBoost : Dimension Reduction (feature selection) 1. Feature importance 2. BorutaShap XGBoost 알고리즘으로 모델을 만들고 최대한 input variables을 줄여 경제적인 모델을 만들기 위해 두 가지 방법을 사용해 봄. 1. Feature importance - XGBoost의 기본 내장된 feature_importance를 이용하는 방법. - importance가 가장 작은 변수를 차례대로 제거 해주고 train에서 성능을 비교 - 본인의 기준에 맞게 제거할 변수를 선택 - 논리적이긴 하나 특별한 이론이 개입된 방법은 아니기 떄문에 신뢰성에 대한 이슈는 있음. #1.1 XGBoost의 내장되어 있는 기능으로 importance를.. 2021. 8. 6. [R] feature selection : 변수들 간의 correlation 체크하기 in R ! 덴하덴하 ~ machine learning modeling을 할때 preprocessing을 한 후 각 피처들간의 correlation을 보는게 좋음 detail source : towardsdatascience.com/feature-selection-correlation-and-p-value-da8921bfb3cf Feature selection — Correlation and P-value Often when we get a dataset, we might find a plethora of features in the dataset. All of the features we find in the dataset might not be… towardsdatascience.com 각 피처들간의 연관성이 깊.. 2020. 9. 25. 이전 1 다음