Товарщи, а может кто подсказать: в зависимости от iterations автоматически подбирается только learning_rate или ещё какие-то параметры? И есть ли ещё подобные зависимости?
Народ, а какие вы параметры крутите в катбусте, если в приоритете "маленькая модель", т.е. минимизировать кол-во признаков? Просто "откусываете" хвост по LossfunctionChange в get_feature_importance ?
Народ, а какие вы параметры крутите в катбусте, если в приоритете "маленькая модель", т.е. минимизировать кол-во признаков? Просто "откусываете" хвост по LossfunctionChange в get_feature_importance ?
попробуй отбирать признаки по статистической значимости, где-то даже пример в туториалах есть
вообще точнее будет так: shap.TreeExplainer(model).shap_values(X), а уже внутри этой функции вызывается model.get_feature_importance(data=X, type='ShapValues')