Size: a a a

2020 January 31

SS

Sergey Shalnov in catboost_ru
Спасибо, работает!

Только вот медленнее)
Metric MAP:top=10 is not implemented on GPU. Will use CPU for metric computation, this could significantly affect learning time

А можно как-то сказать чтоб считал evaluation_metric раз в 10 итераций, а не каждую? )
источник

AK

Andrei Khropov in catboost_ru
> А можно как-то сказать чтоб считал evaluation_metric раз в 10 итераций, а не каждую? )
источник

AK

Andrei Khropov in catboost_ru
Да, за это отвечает параметр обучения metric_period
источник

Аa

Андрей amber4eg in catboost_ru
Есть нюансы с overfitting detector.
источник

P🐈

Pavel Tyavin 🐈 in catboost_ru
Привет. А файл модели сжимается обычным зипом?
источник

AK

Andrei Khropov in catboost_ru
Всем привет! Вышел CatBoost 0.21.

New features:
- The main feature of this release is the Stochastic Gradient Langevin Boosting (SGLB) mode that can improve quality of your models with non-convex loss functions. To use it specify langevin option and tune diffusion_temperature and model_shrink_rate. See the corresponding paper for details.

Improvements:

- Automatic learning rate is applied by default not only for Logloss objective, but also for RMSE (on CPU and GPU) and MultiClass (on GPU).
- Class labels type information is stored in the model. Now estimators in python package return values of proper type in classes_ attribute and for prediction functions with prediction_type=Class. #305, #999, #1017.
 Note: Class labels loaded from datasets in CatBoost dsv format always have string type now.

Bug fixes:
- Fixed huge memory consumption for text features. #1107
- Fixed crash on GPU on big datasets with groups (hundred million+ groups).
- Fixed class labels consistency check and merging in model sums (now class names in binary classification are properly checked and added to the result as well)
- Fix for confusion matrix (PR #1152), thanks to @dmsivkov.
- Fixed shap values calculation when boost_from_average=True. #1125
- Fixed use-after-free in fstr PredictionValuesChange with specified dataset
- Target border and class weights are now taken from model when necessary for feature strength, metrics evaluation, roc_curve, object importances and calc_feature_statistics calculations.
- Fixed that L2 regularization was not applied for non symmetric trees for binary classification on GPU.
- [R-package] Fixed the bug that catboost.get_feature_importance did not work after model is loaded #1064
- [R-package] Fixed the bug that catboost.train did not work when called with the single dataset parameter. #1162
- Fixed L2 score calculation on CPU

Other:

- Starting from this release Java applier is released simultaneously with other components and has the same version.

Compatibility:

- Models trained with this release require applier from this release or later to work correctly.
источник
2020 February 01

N

Norx in catboost_ru
📚Fresh book by Nassim Taleb

Statistical Consequences of Fat Tails: Real World Preasymptotics, Epistemology, and Applications

https://arxiv.org/abs/2001.10488

@ai_machinelearning_big_data
источник
2020 February 02

AS

Alexsey Shestacov in catboost_ru
Stochastic Gradient Langevin Boosting (SGLB)
https://arxiv.org/pdf/2001.07248.pdf
источник

AS

Alexsey Shestacov in catboost_ru
То есть catboost должен сойтись к глобальному минимуму?
источник

AS

Alexsey Shestacov in catboost_ru
Звучит круто, но как то вообще почти без комментариев
источник

A

Alexandr in catboost_ru
Звучит как то слишком круто
источник

AY

Alexey Yurasov in catboost_ru
Alexsey Shestacov
То есть catboost должен сойтись к глобальному минимуму?
К 42
источник

AS

Alexsey Shestacov in catboost_ru
я думаю вопрос как долго ждать
источник

AU

Aleksei Ustimenko in catboost_ru
Привет всем, если есть вопросы по SGLB - спрашивайте
источник

AU

Aleksei Ustimenko in catboost_ru
Да, сходимость гарантируется к глобальному минимуму в случае non-convex, в convex она и так есть
источник

AU

Aleksei Ustimenko in catboost_ru
Но то как много времени на это потребуется - это другой вопрос)
источник

AU

Aleksei Ustimenko in catboost_ru
Но профит, btw, можно словить и в convex - за счет улучшения генерализации
источник

AS

Alexsey Shestacov in catboost_ru
Можно получить а можно и нет))
источник

A

Alexandr in catboost_ru
Alexsey Shestacov
Можно получить а можно и нет))
Классика
источник

A

Alexandr in catboost_ru
А по времени большая разница?
источник