Size: a a a

2018 December 29

OO

Oleg Okeev in catboost_ru
У меня по 800 итераций и низкий learning rate
источник

AK

Andrei Khropov in catboost_ru
С 0.12 есть проблема сейчас со скоростью cv на GPU по умолчанию. Она исправлена в master ветке на github, но еще не выехала на pypi. Пока я бы рекомендовал ставить iterations_batch_size у cv равным числу всех итераций.
источник

OO

Oleg Okeev in catboost_ru
А такая ошибка это потому что Cuda видяха не поддерживает ?
Это реальной строкой кода делается ?
task_type=‘GPU’?
источник

OO

Oleg Okeev in catboost_ru
Andrei Khropov
С 0.12 есть проблема сейчас со скоростью cv на GPU по умолчанию. Она исправлена в master ветке на github, но еще не выехала на pypi. Пока я бы рекомендовал ставить iterations_batch_size у cv равным числу всех итераций.
А что значит этот показатель? Это скорость на проце
источник

OO

Oleg Okeev in catboost_ru
Я пока не пользовался им
источник

OO

Oleg Okeev in catboost_ru
Dmitry Torshin
Это не вопрос по использованию. Но кто какие методы отбора признаков использует при отборе признаков? Кроме как поочередное исключение на кросс-валидации. Что я имею ввиду. В целом бустинг делает сплиты по всем признаком, да и выкидывать самые бесполезные по версии сплитов с точки зрения метрик не всегда хорошая идея.
Наверное проще для числовых/бинарных взять логрег и посмотреть на веса.
Ну судя по Pydata нужно юзать
Model.get.feauture.importance для рейтинга признаков
источник

OO

Oleg Okeev in catboost_ru
А если изобрёл новый , то catboost_evaluation и смотреть p_value
Если менее 0.05, то предиктор good и стоит брать
источник

AK

Andrei Khropov in catboost_ru
Cv считает итерации блоками на каждом фолде, а потом для всех итераций в этом блоке на всех фолдах усредняет метрики. Этот параметр  - размер блока, для Gpu по умолчанию он сейчас занижен относительно оптимального.
источник

OO

Oleg Okeev in catboost_ru
Andrei Khropov
Cv считает итерации блоками на каждом фолде, а потом для всех итераций в этом блоке на всех фолдах усредняет метрики. Этот параметр  - размер блока, для Gpu по умолчанию он сейчас занижен относительно оптимального.
Понял , попробую .
А что делать с такой ошибкой  на cv?
Training has stopped (degenerate solution on iteration 10, probably too small l2-regularization, try to increase it)
По дефолту он 3, поставить 5?
источник

AC

Alexander C in catboost_ru
источник

AC

Alexander C in catboost_ru
очень интересная, катбуст кажется делает это по дефолту из коробки чуть ли не с самого начала)
источник

AC

Alexander C in catboost_ru
Коллеги, вот говорят, что катбуст делает регуляризованный mean encoding. А как выбирается alpha?
источник

OO

Oleg Okeev in catboost_ru
Кстати сделал оптимизацию по Auc
Получил Auc =0.95
Accuracy =0.89
Precision =0.6
Как вообще можно объяснить такую аномалию в задаче бинарной классификации ?
источник

VK

Vadim Kokhtev in catboost_ru
Классы несбалансированные, например
источник

OO

Oleg Okeev in catboost_ru
Да 0-80%, 1-20%
источник

OO

Oleg Okeev in catboost_ru
Vadim Kokhtev
Классы несбалансированные, например
На что тогда смотреть?
источник

VK

Vadim Kokhtev in catboost_ru
Можно площадь под precision-recall кривой
источник

OO

Oleg Okeev in catboost_ru
Vadim Kokhtev
Можно площадь под precision-recall кривой
Auc ?
источник

VK

Vadim Kokhtev in catboost_ru
ага, auc-pr
источник

OO

Oleg Okeev in catboost_ru
Vadim Kokhtev
ага, auc-pr
А что за auc-Pr? Catboost просто Auc разрешает
источник