Size: a a a

2020 May 07

MK

Maxim Khrisanfov in catboost_ru
да у меня также бывает, вот прям только что ) c 0.3 работало, удалил фичи некоторые и сразу переобучаться начал, уменшил lr и пошло
источник

MK

Maxim Khrisanfov in catboost_ru
просто другой lr поставь или SEED попробуй другой
источник

OT

Oscar Tempter in catboost_ru
random_state менял, lr поставил 0.01 b и все равно
источник

OT

Oscar Tempter in catboost_ru
и на трейне и на тесте одинаково идеальные результаты
источник

MK

Mikhail Kovalchuk in catboost_ru
ну таргет не удалил значит
источник

MK

Maxim Khrisanfov in catboost_ru
да, может таргет в фичи попал
источник

NT

Nikolay Tolstov in catboost_ru
важность фичей посмотри
источник

OT

Oscar Tempter in catboost_ru
да, так и сделал. Все, тайна разгадана)) Перепутал название фичей и забыл что таргет формировался на основании как раз этой фичи
источник

A

Alexey Kuznetsov in catboost_ru
Здравствуйте, в predict можно указать ntree_start и ntree_end. Если взять с 100 по 200. То будет ли прогноз осмысленным? Из теории бустинга, каждое следующее дерево обучается на ошибке всех предыдущих. Если мы выкинем первые 100 деревьев,  то не будет ли прогноз хаотичным? Ведь ошибка первых 100 будет неизвестна. А вторая сотня обучена на этой ошибке первых 100. Например первые 100 улучшили модель до 90%. А вторая сотня ещё на 2%. Выкинув первые 100, не получим ли точность около 50% т.е. случайный результат?
источник

AD

Anna Veronika Dorogu... in catboost_ru
Alexey Kuznetsov
Здравствуйте, в predict можно указать ntree_start и ntree_end. Если взять с 100 по 200. То будет ли прогноз осмысленным? Из теории бустинга, каждое следующее дерево обучается на ошибке всех предыдущих. Если мы выкинем первые 100 деревьев,  то не будет ли прогноз хаотичным? Ведь ошибка первых 100 будет неизвестна. А вторая сотня обучена на этой ошибке первых 100. Например первые 100 улучшили модель до 90%. А вторая сотня ещё на 2%. Выкинув первые 100, не получим ли точность около 50% т.е. случайный результат?
Ненулевой ntree_start нужно использовать только в том случае, если ты по каким-то причинам решил посмотреть на предсказания без скольких-то первых деревьев. Большинству пользователей это не нужно.
источник

A

Alexey Kuznetsov in catboost_ru
У вас последующие деревья учатся на ошибках предыдущих?
источник

AU

Aleksei Ustimenko in catboost_ru
Это вполне осмысленная операция, если используется model shrinkage, например
источник

A

Alexey Kuznetsov in catboost_ru
У вас последующие деревья учатся на ошибках предыдущих?
источник

AU

Aleksei Ustimenko in catboost_ru
А как можно иначе?
источник

A

Alexey Kuznetsov in catboost_ru
Хорошо. Спасибо. Тогда  в прогнозе на средних деревьях без первых смысла точно нет, как и в shrink- е. Может быть они что то и дадут при eta =0.0001. но при 0.1 и выше без 10 первых деревьев результат прогноза будет плохой
источник

AU

Aleksei Ustimenko in catboost_ru
Не всегда, повторю, при model shrinkage первые деревья почти нулевые получаются
источник

AU

Aleksei Ustimenko in catboost_ru
Это если выставлена опция —model-shrink-rate
источник

A

Alexey Kuznetsov in catboost_ru
Поизучаю... Спасибо
источник
2020 May 08

IP

Igor Petrov in catboost_ru
Будет ли поддержка plot в PyCharm?
источник
2020 May 09

b

bulat in catboost_ru
Aleksei Ustimenko
Не всегда, повторю, при model shrinkage первые деревья почти нулевые получаются
А почему?
источник