Size: a a a

2019 November 27

A

Alexandr in catboost_ru
early_stopping_rounds = N
источник

D

Dasha in catboost_ru
А касательно информации в документации:
https://catboost.ai/docs/features/overfitting-detector-desc.html
The number of iterations to continue the training after the iteration with the optimal metric value. ?
источник
2019 November 28

A

Alex.Ash in catboost_ru
Dasha
Это происходит непосредственно внутри функции CatBoostRegressor()? Верно ли, что параметр early_stopping_rounds останавливает итерации с учётом od_type = "Iter", od_wait = 100 - то есть обрезает N_iter_best или N_iter_best+100 итераций?

И вопрос касательно алгоритма (или подскажите, пожалуйста, где прочитать): как идентифицируется переобучение модели, по какому критерию, алгоритму, если RMSE должна продолжать снижаться при переобучении и early_stopping_rounds может не помочь? (Извините, если этот вопрос покажется нубским)
eval_metric . До тех пор пока на валидационной выборке ошибка падает, модель обучается. Что в eval_metric укажешь, то и будет триггером. Если ошибка прекратила падать, срабатывает еарли-стоппинг, даже если на трейне ошибка продолжает падать.
источник

IP

Igor Petrov in catboost_ru
Какая обработка текстов возможно в новой версии? Только классификация?
источник

AD

Anna Veronika Dorogush in catboost_ru
Текстовые колонки только в классификации и только на GPU пока что. Весь препроцессинг и словари - это отдельная библиотека, их можно использовать отдельно.
источник

IP

Igor Petrov in catboost_ru
Anna Veronika Dorogush
Текстовые колонки только в классификации и только на GPU пока что. Весь препроцессинг и словари - это отдельная библиотека, их можно использовать отдельно.
Инференс на CPU возможен?
источник

SK

Stanislav Kirillov in catboost_ru
конечно
источник

IP

Igor Petrov in catboost_ru
Просто обучение только GPU странно
источник

AD

Anna Veronika Dorogush in catboost_ru
На CPU тоже будет через какое-то время
источник

D

Dasha in catboost_ru
Коллеги, подскажите, пожалуйста:
на кросс-валидации catboost получили высокий RMSE, дополнительно очистила данные по 95% перцентилю (убрала всё, что выше), какие ещё действия рекомендуете предпринять для снижения ошибки?
источник

Bo

Blen obema in catboost_ru
Dasha
Коллеги, подскажите, пожалуйста:
на кросс-валидации catboost получили высокий RMSE, дополнительно очистила данные по 95% перцентилю (убрала всё, что выше), какие ещё действия рекомендуете предпринять для снижения ошибки?
Мб гиперпараметры пересмотреть?
источник

VS

Vasily Suvorov in catboost_ru
Dasha
Коллеги, подскажите, пожалуйста:
на кросс-валидации catboost получили высокий RMSE, дополнительно очистила данные по 95% перцентилю (убрала всё, что выше), какие ещё действия рекомендуете предпринять для снижения ошибки?
есть целые курсы, посвященные улучшению результатов модели, особенно в рамках соревнований.
Что вы уже пробовали кроме очистки от выбросов? статистики строили? комбинации  категориальных признаков?
источник

P

Parθava in catboost_ru
Dasha
Коллеги, подскажите, пожалуйста:
на кросс-валидации catboost получили высокий RMSE, дополнительно очистила данные по 95% перцентилю (убрала всё, что выше), какие ещё действия рекомендуете предпринять для снижения ошибки?
А почему именно по 95% ?
источник
2019 November 29

ibkkth Марат in catboost_ru
Привет. А в катбуст реалищовано использование лучших фичей при прогнозировании?
источник

P🐈

Pavel Tyavin 🐈 in catboost_ru
ibkkth Марат
Привет. А в катбуст реалищовано использование лучших фичей при прогнозировании?
расскажи чуть конкретнее, что ты имеешь в виду?

Если отвечать на твой вопрос без контекста, то ответ будет "да".
источник

ibkkth Марат in catboost_ru
))
источник

ibkkth Марат in catboost_ru
Можете просто команду набить, я по ней погуглю
источник

P🐈

Pavel Tyavin 🐈 in catboost_ru
.fit
источник

ibkkth Марат in catboost_ru
)) не команду а настройку
источник

P🐈

Pavel Tyavin 🐈 in catboost_ru
Смотри, исследованию важности фичей посвящена статья https://catboost.ai/docs/concepts/fstr.html
источник