Это публичная группа, она создана для обсуждения вопросов, связанных с библиотекой CatBoost (https://catboost.ai). Задавайте вопросы, отвечайте на вопросы, делитесь ссылкой на группу! Группа предназначена для обсуждения на русском языке. Для обсуждений на английском языке просьба писать в группу https://t.me/catboost_en.
Это не вопрос по использованию. Но кто какие методы отбора признаков использует при отборе признаков? Кроме как поочередное исключение на кросс-валидации. Что я имею ввиду. В целом бустинг делает сплиты по всем признаком, да и выкидывать самые бесполезные по версии сплитов с точки зрения метрик не всегда хорошая идея. Наверное проще для числовых/бинарных взять логрег и посмотреть на веса.
Меня занимает вопрос что именно выводится в процессе обучения при заданном валидационном сете? это метрика посчитанная на каком-то случайном сабсемпле валидационного набора? Потому что метрика посчитанная на валидационном сете часто (далеко не всегда) отличается от того, что выводится в процессе обучения как лучшая.
@Sergeif_239 выводится график разных метрик в зависимости от числа деревьев. Чтобы обрезать потом обученную модель(в том случае, если не стоит early_stop), то есть model.shrink(num_trees)