Size: a a a

2021 June 17

SK

Stanislav Kirillov in catboost_ru
где-то текут ресурсы из-за перехода на куда 11
источник
2021 June 18

VS

Vitaly S in catboost_ru
Кстати, да, умирает на разных итерациях, сначала не обратил внимание. Спасибо, буду ждать фикса 🙏
источник

SK

Stanislav Kirillov in catboost_ru
у меня сейчас умирает в конце обучения
источник

SK

Stanislav Kirillov in catboost_ru
Скорее всего у вас просто логгирование буферизовалось
источник

OA

Oleg Antonovich in catboost_ru
Ув. тов., а как-нибудь возможно видеть график обучения при запуске в коллабе?
источник

IL

Ivan Lyzhin in catboost_ru
К сожалению, нет. Colab пока не поддерживает сторонние виджеты https://github.com/googlecolab/colabtools/issues/498
источник

OA

Oleg Antonovich in catboost_ru
Спасибо
источник

В

Влад in catboost_ru
Всем привет! У меня следующий вопрос. Мне нужно обучить задачу регрессии, датасет, на котором обучается модель, состоит из 2 частей A и B. Есть признак p, для части A, он не собран, для части B он есть. За исключением этого признака датасеты одинаковые. Какой можете посоветовать способ обучения на датасене A|B? В голову приходит обучить модель на A, а потом как-то продолжить обучение на B(в котором на один признак больше)
источник

В

Влад in catboost_ru
Ну естественно обучаю это дело на катбусте
источник

I

Ivan in catboost_ru
Ребят, есть какой нибудь гайд как подобрать hyperparameter space для задачи бинарной классификации ? Есть пару миллионов строк данных и например не уверен сколько брать estimators от 50 до 300 или вообще тысячи перебирать
источник

TB

Taras B in catboost_ru
Сделать модель для предикта признака, предсказать для А :) ну а потом уже делать нужную модель
источник
2021 June 19

В

Влад in catboost_ru
Кажется таким образом получится дата ликадж
источник

AI

Aleksey Ivanov in catboost_ru
Ещё вариант: обучить модель на A+B, потом на B обучать вторую модель, в которой либо два признака (предикт первой модели плюс p), либо эти два плюс все остальные
источник

TB

Taras B in catboost_ru
OOF использовать
источник

В

Влад in catboost_ru
Ну вообще, я немного слукавил, p - это набор фичей (порядка 30). Интересно можно ли обучится на B, а потом использовать как baseline и обучиться на A(отключив признаки p).
источник

В

Влад in catboost_ru
Просто если в B у нас есть доп информация, а в А нет, то хочется учить модель исходя из этого не использовать отсутствующие признаки.
источник

A

Andrew in catboost_ru
В катбусте же есть поддержка отсутствующих значений. Почему просто не заполнить в A эти значения None, и не обучать на A+B? По крайней мере, в качестве бейзлайна пойдёт.
источник

L

LS in catboost_ru
Админы, проверьте пожалуйста ignored features, дело в том что если использовать этот атрибут то происходит какая то дичь.

Предположим что в классифаер я добавляю ignored features, 1, 230, 455.

Так же в pool.cd я записываю кат фичи, под номерами 2,231,456. Обучаю модель, и далее происходит какая то неразбериха.

То есть, в тестовом дф фичам под индексом 2,231,456 я присваиваю str, но получаю ошибку о том что фича под индексом 231 должна быть str.

Ну или я не разобрался как это работает
источник

ND

Nikita Dmitriev in catboost_ru
Привет!
В cd файл ты указываешь индексы колонок
А в ignored features индексы именно фичей
источник

L

LS in catboost_ru
Привет! То есть в cd надо указать все колонки, не только с кат фичами но и с num? Грубо говоря:

Pool cd:

2, 231, 456 категориальные, а все остальные в списке с 1 по 456 num, тогда можно указать игнорируемые фичи под индексом 1,230, 455, правильно? Или индексы фичей это что то другое? Я читал описание на сайте, но видимо не до конца понял
источник