Size: a a a

2019 May 29

AD

Anna Veronika Dorogush in catboost_ru
так там же в ошибке написано: max_leaves option works only with lossguide tree growing
источник

AD

Anna Veronika Dorogush in catboost_ru
По умолчанию oblivious, для этого типа эти параметры не работают. Для удобства подбора параметров наверное можно просто игнорировать эти опции и ворнинг писать, если стратегия постронения другая.
источник

AD

Anna Veronika Dorogush in catboost_ru
Хотя нет, это скроет проблему только.
источник

KB

KS Bo in catboost_ru
так у меня с другими значениями max_leaves работает
источник

KB

KS Bo in catboost_ru
т.е. ошибка возникает только на одном значении
источник

AD

Anna Veronika Dorogush in catboost_ru
скинь в issue пример с кодом, где ты не указываешь стратегию, но указываешь эти параметры
источник

KB

KS Bo in catboost_ru
Anna Veronika Dorogush
скинь в issue пример с кодом, где ты не указываешь стратегию, но указываешь эти параметры
реди
источник

KB

KS Bo in catboost_ru
Anna Veronika Dorogush
скинь в issue пример с кодом, где ты не указываешь стратегию, но указываешь эти параметры
значение какого параметра мне нужно поменять на 0,15?
источник

AD

Anna Veronika Dorogush in catboost_ru
версию катбуста апнуть
источник

KB

KS Bo in catboost_ru
ааа)
источник

A

Aнтон in catboost_ru
Blen obema
Ребята, не знаю тонкостей работы бустинга поэтому спрашиваю. Если я добавлю признак вообще шум какой-то максимально нерелевантный, то катбуст всё равно его будет использовать при составлении деревьев? Или этот признак не будет вообще использоваться при построении модели?
Скорее всего нет, но бывает, что мусор тоже попадает в признаки, особенно если валидационная выборка так себе. По теме выкидывания шума (помимо стандартных инструментов регуляризации и валидации) есть библиотеки типа Boruta, BoostaRoota
источник

A

Aнтон in catboost_ru
Им можно "скормить" в том числе и катбуст
источник

Bo

Blen obema in catboost_ru
Aнтон
Скорее всего нет, но бывает, что мусор тоже попадает в признаки, особенно если валидационная выборка так себе. По теме выкидывания шума (помимо стандартных инструментов регуляризации и валидации) есть библиотеки типа Boruta, BoostaRoota
Спасибо!
источник
2019 May 31

AS

Andrey Stroganov in catboost_ru
Привет, подскажите пожалуйста, можно ли заставить катбуст не перемешивать данные перед разделением в режиме кросс-валидации? Интересует command-line. Можно ответить вот сюда, чтоб ответ сохранился для истории. https://stackoverflow.com/questions/56389655/is-it-possible-to-prevent-command-line-catboost-to-shuffle-of-the-input-data-in
источник

YB

Yury Belousov in catboost_ru
--has-time есть в параметрах в документации
источник

ИБ

Иван Брагин in catboost_ru
Yury Belousov
--has-time есть в параметрах в документации
has-time шафлит для подсчета ctr категориальных фичей, вопрос немного про другое. Хотя has-time тоже может не помешает для улучшения результата
источник

AS

Andrey Stroganov in catboost_ru
Yury Belousov
--has-time есть в параметрах в документации
Да, спасибо, я видел его, но там ничего не написано про то, как он влияет на шафл перед сплитом кросс-валидации. Этот параметр действительно предотвращает шафл?
источник

AA

Artem Andrienko in catboost_ru
У конструктора cv есть параметр shuffle же?
источник

MK

Maxim Khrisanfov in catboost_ru
источник

MK

Maxim Khrisanfov in catboost_ru
100 раз обучил модели с одинаковыми параметрами (но с разным task_type) на случайно выбранных данных, затем сделал предсказания на отложенной выборке. model 1 это GPU, model 2 это CPU, x это LogLoss на отложенной выборке. Затем применил тесты scipy ttest_ind и ttest_rel. Разница в результатах оказалась статистически значимой. Почему так?
источник