Size: a a a

2020 June 24

MK

Maxim Khrisanfov in catboost_ru
симетричные же деревья сильно переобучаются
источник

MK

Maxim Khrisanfov in catboost_ru
ну и l2_lef_reg увеличиваю до 10-15, дефолтный слишком мало
источник

I

Ilyas in catboost_ru
у меня модель переобучена, добавляю параметр регуляризации  l2_lef_reg , при его высоких значениях, переобучение уменьшается (разница метрик на тесте и трейне), но результат в песочнице на kaggle становиться хуже, а при уменьшении его лучше.  Какой то парадокс))
источник

I

Ilyas in catboost_ru
Maxim Khrisanfov
по моим наблюдениям переобучение сильно снижает grow_policy='Lossguide' и max_leaves=10 начиная с 10 потихоньку увеличивать, если говорить про переобучение как разницу ошибки на трейне и валидации
спасибо а подсказку grow_policy='Lossguide' не пробывал
источник

I

Ilyas in catboost_ru
Еще применение кросс-валидации почему-то ухудшало результат, по сравнению со случаем вообще без тестовой выборки на catboost. Не сталкивались с чем это может быть связано?
источник

AT

Aliaksandr Tsukanau in catboost_ru
Ilyas
Еще применение кросс-валидации почему-то ухудшало результат, по сравнению со случаем вообще без тестовой выборки на catboost. Не сталкивались с чем это может быть связано?
вы говорите ваша модель переобучена. На валидацию отделяется часть данных, и переобучение усиливается из-за фактически уменьшения тренировочного набора
источник

AT

Aliaksandr Tsukanau in catboost_ru
если конечно не делать бэггинг поверх фолдов
источник

I

Ilyas in catboost_ru
Aliaksandr Tsukanau
вы говорите ваша модель переобучена. На валидацию отделяется часть данных, и переобучение усиливается из-за фактически уменьшения тренировочного набора
Беггинг фолдов делаю, и после беггинга хуже по сравнению со случаем без теста вообще, предположение про данные кажется разумным, спасибо.
источник
2020 June 26

AK

Andrey Kuznetsov in catboost_ru
Фродо или Бильбо беггинг?
источник
2020 June 27

VS

Victor Solovev in catboost_ru
Переслано от Vladimir
источник
2020 June 28

GT

Guru Tom in catboost_ru
Интересная статистика была )))) Жаль рано удалили выборка не релевантная 😁
источник

AK

Andrew Kolesnichenko in catboost_ru
почему predict работает медленее на одном объекте с thread_count > 1? можно ли как-то увеличить скорость предсказаний имея больше 1 ядра?
источник

SK

Stanislav Kirillov in catboost_ru
на одном объекте не вижу профита
источник

SK

Stanislav Kirillov in catboost_ru
только если в формуле миллионы деревьев
источник

AK

Andrew Kolesnichenko in catboost_ru
xgboost быстрее работает с несколькими ядрами
источник

SK

Stanislav Kirillov in catboost_ru
у них само предсказание тяжелее
источник

SK

Stanislav Kirillov in catboost_ru
симметричные деревья применяются в 60 раз быстрее xgboost-овых
источник

SK

Stanislav Kirillov in catboost_ru
если и есть тормоза, то только на прокидывании данных из питона в с++
источник

SK

Stanislav Kirillov in catboost_ru
а в вашем случае для аналогичного размера формул какая скорость выходит?
источник

AK

Andrew Kolesnichenko in catboost_ru
Stanislav Kirillov
симметричные деревья применяются в 60 раз быстрее xgboost-овых
каким параметром можно выбрать симметричные деревья?
источник