Size: a a a

2019 February 08

MK

Maxim Khrisanfov in catboost_ru
да
источник

SZ

Sasha Zhu in catboost_ru
тогда еще дурацкий вопрос
источник

SZ

Sasha Zhu in catboost_ru
а чем это тогда отличается от use_best_model?
источник

MK

Maxim Khrisanfov in catboost_ru
use_best_model используешь совместно с early_stopping_rounds для выбора модели по результату на отложенной выборке, при кросс-валидации его тоже можно использовать чтобы остановить обучении заранее
источник

SZ

Sasha Zhu in catboost_ru
Maxim Khrisanfov
use_best_model используешь совместно с early_stopping_rounds для выбора модели по результату на отложенной выборке, при кросс-валидации его тоже можно использовать чтобы остановить обучении заранее
Поняла
источник

RR

Rock Roll in catboost_ru
Можно ли получить все параметры лучшей модели, построенной по cv, и обучить ещё раз модель с нуля с ними на всей тренировочной выборке? Будет ли это законным способом получить лучшую модель и не обмануть самого себя?
источник

A

Andrey in catboost_ru
Можно
источник

A

Andrey in catboost_ru
Более того, самые хитрые еще и увеличивают число итераций пропорционально приросту числа наблюдений
источник

MK

Maxim Khrisanfov in catboost_ru
можно, лучше на отложенной выборке еще раз убедиться что все ok, если данных не жалко
источник

RR

Rock Roll in catboost_ru
Andrey
Более того, самые хитрые еще и увеличивают число итераций пропорционально приросту числа наблюдений
Под итерациями подразумевается НЕ количество деревьев, верно?
источник

MK

Maxim Khrisanfov in catboost_ru
итерации это и есть количество деревьев
источник

A

Andrey in catboost_ru
Я в общем случае пишу
источник

A

Andrey in catboost_ru
Не только для бустинга
источник

RR

Rock Roll in catboost_ru
Andrey
Более того, самые хитрые еще и увеличивают число итераций пропорционально приросту числа наблюдений
Не очень понимаю, зачем это делать, если количество итераций мы в том числе подбирали кросс-валидацией. Так ведь можно все параметры подбирать заново, и тогда кросс-валидация вообще не нужна
источник

A

Andrey in catboost_ru
Имеется ввиду, что меньше риск переобучения за счет добавочных данных
источник

MK

Maxim Khrisanfov in catboost_ru
наоборот за счет увеличения итераций будет переобучение
источник

MK

Maxim Khrisanfov in catboost_ru
это на кагле что-то придумали ради сотых на лидерборде думаю в большинстве случаев ничего увеличивать не надо
источник

A

Andrey in catboost_ru
Иногда это работает
источник

RR

Rock Roll in catboost_ru
короче, стоит всё-таки ждать внедрения фичи, позволяющей взять лучшую модель по итогам cv
источник
2019 February 09

MK

Maxim Khrisanfov in catboost_ru
get_feature_importance питоновский не считает feature importance даже если в data передать pool, все время моментально выводит один и тот же результат - это баг?
источник