점수와 파라미터Model: model_rf Best Parameters: {'n_estimators': 100, 'min_samples_split': 8, 'max_depth': 44, 'criterion': 'gini'} Best F1-macro Score: 0.9477164467194635 Best Accuracy Score: 0.9528149047208994 Best Score: 0.9477164467194635Model: model_xgb Best Parameters: {'tree_method': 'exact', 'subsample': 0.7, 'n_estimators': 700, 'min_child_weight': 2, 'max_depth': 67, 'learning_rate': 0.39999999999999997, 'colsample_bytree': 0.635593220338983} Best F1-macro Score: 0.9513273108669399 Best Accuracy Score: 0.9529403178656576 Best Score: 0.9513273108669399
Model: model_et Best Parameters: {'n_estimators': 600, 'min_samples_split': 5, 'max_depth': 49, 'criterion': 'entropy'} Best F1-macro Score: 0.9446519490642105 Best Accuracy Score: 0.9518847912243487 Best Score: 0.9446519490642105
Model: model_dt Best Parameters: {'max_depth': 18, 'criterion': 'entropy'} Best F1-macro Score: 0.9430135747867038 Best Accuracy Score: 0.9507456596424569 Best Score: 0.9430135747867038
18차
16차와 17차 파라미터의 파라미터들을 조합해서 서로 비교
점수와 파라미터Model: model_rf Best Parameters: {'max_depth': 44, 'min_samples_split': 8} Best F1-macro Score: 0.9477164467194635 Best Accuracy Score: 0.9528149047208994 Best Score: 0.9477164467194635Model: model_xgb Best Parameters: {'colsample_bytree': 0.635593220338983, 'learning_rate': 0.39999999999999997, 'min_child_weight': 2, 'n_estimators': 700, 'subsample': 0.7} Best F1-macro Score: 0.9513273108669399 Best Accuracy Score: 0.9529403178656576 Best Score: 0.9513273108669399
Model: model_et Best Parameters: {'criterion': 'entropy', 'max_depth': 49} Best F1-macro Score: 0.9446519490642105 Best Accuracy Score: 0.9518847912243487 Best Score: 0.9446519490642105
Model: model_dt Best Parameters: {'max_depth': 18} Best F1-macro Score: 0.9430135747867038 Best Accuracy Score: 0.9507456596424569 Best Score: 0.9430135747867038
위 의 결과들을 이용해서 stack해볼려 했는데 기본적으로 해보는 횟수 안에 로지스틱회귀의 학습이 다 안끝나서 하지 못하였다(학습 횟수를 늘려도 되지만 그러지 않는 편이 의도에 맞게 제대로 될듯하여 일단 하지 않고 마무리 지었다)
c:\Users\kssg1\AppData\Local\Programs\Python\Python38\lib\site-packages\sklearn\linear_model\_logistic.py:460: ConvergenceWarning: lbfgs failed to converge (status=1): STOP: TOTAL NO. of ITERATIONS REACHED LIMIT.
이런 식으로 떠서 어떻게 더 조절해줘야 할지 가늠이 안되서 자격증 공부를 마저하기 위해 마무리 지었다
추가적으로 이날 변수를 더 축약해서 4개중 가장 높던 2개, 그리고 그다음 높던 3개로 해봤었는데 오히려 점수가 낮아졌다고 판단되어 확인만하고 넘어가게 되었다