Size: a a a

2020 April 29

SK

Stanislav Kirillov in catboost_ru
Спасибо
источник

SK

Stanislav Kirillov in catboost_ru
По поводу баги с кастомной квантизацией - там же у тебя в этой колонке правда есть Nan?
источник

MK

Maxim Khrisanfov in catboost_ru
да
источник

SK

Stanislav Kirillov in catboost_ru
Ok, фикс будет в следующем миноре
источник

MK

Maxim Khrisanfov in catboost_ru
спасибо)
источник
2020 April 30

OT

Oscar Tempter in catboost_ru
подскажите где в коде катбуста найти реализацию eval_metric для AUC
источник

OT

Oscar Tempter in catboost_ru
хочу понять как мне PR AUC реализовать в качестве кастомной метрики. Примеры из документации  я видел
источник

AD

Anna Veronika Dorogu... in catboost_ru
pr auc сейчас на ревью в пулреквесте
источник

OT

Oscar Tempter in catboost_ru
еще вопрос про кастомные метрики: заметил в примере реализации accuracy что вычисление идет итеративно через цикл, почему это не делается по "питоновски" когда используется numpy или просто через слайсы производятся операции ?
источник

OT

Oscar Tempter in catboost_ru
источник

AD

Anna Veronika Dorogu... in catboost_ru
это пример в документации же, его задача - показать, как лосс написать
источник

AD

Anna Veronika Dorogu... in catboost_ru
но вообще кастомные метрики лучше писать в плюсах, будет работать намного быстрее
источник

AD

Anna Veronika Dorogu... in catboost_ru
по тому, как это сделать, есть туториал в репозитории
источник
2020 May 02

TN

Timur Nurlygayanov in catboost_ru
Всем привет, делаю бинарную классификацию с параметром Logloss, в обучаюшей выборке примеров одного класса значительно больше примеров второго класса (на пару порядков), и в результате обучения модель везде предсказывает только первый класс. Есть ли какие-то общие методы как готовить данные / указать какие-то параметры чтобы объекты второго класса тоже нормально детектились моделью? Кажется странным в обучающей выборке откидывать часть данных, относящихся к первому классу, но другого способа я пока не нашел.
источник

М

Мой любимый... in catboost_ru
самое унылое, что можно сделать - выкинуть большинство элементов с одного класса, что б было поровну)
источник

М

Мой любимый... in catboost_ru
гуглите imbalanced data
источник

М

Мой любимый... in catboost_ru
кстати, выкинуть почти весь датасет, это хоть и уныло, но рабочий вариант))
источник

TN

Timur Nurlygayanov in catboost_ru
Спасибо  )
источник

AU

Aleksei Ustimenko in catboost_ru
Еще вариант поварьировать порог, у вас, скорее всего, класс 1 предсказывается, если модель выдала предсказание > 0.5, можно получить другие предсказания, если вы будете относить к первому классу по другому порогу
источник

AU

Aleksei Ustimenko in catboost_ru
Подобрать порог можно по ошибке классификации на валидации
источник