С бустингом тоже, по хорошему, много возьни. Чтобы распределения на трейне и тесте совпадали, чтобы лика не было (кэтбуст до сих пор ликует), таргет энкодинг аккуратный, не переобучиться при выборе параметров и es…
А про NODE - почти всегда tabnet лучше работает. В ансамбль - может быть, но ещё ни разу не видел.
С бустингом тоже, по хорошему, много возьни. Чтобы распределения на трейне и тесте совпадали, чтобы лика не было (кэтбуст до сих пор ликует), таргет энкодинг аккуратный, не переобучиться при выборе параметров и es…
А про NODE - почти всегда tabnet лучше работает. В ансамбль - может быть, но ещё ни разу не видел.
ничего не скажу - не пользовался tabnet, и пару лет руки до каггла не доходили уже 🙁 хз, что там в тренде сейчас
Лгбм, как всегда) Ну и сеточки на торче в стэк, если дотюнить. А, ну и трансформер почти на любую задачу. Сейчас ещё CNN для табличек начали использовать (на тсне + кроп и поворот, можно в MOA соревновании почитать).
Лгбм, как всегда) Ну и сеточки на торче в стэк, если дотюнить. А, ну и трансформер почти на любую задачу. Сейчас ещё CNN для табличек начали использовать (на тсне + кроп и поворот, можно в MOA соревновании почитать).
Привет! У меня есть набор характеристик и с десяток вещественных целевых значений. Как мне лучше поступить: обучать отдельную модель под каждое целевое значение? Или как-то по другому? Речь про регрессионную модель
Привет! У меня есть набор характеристик и с десяток вещественных целевых значений. Как мне лучше поступить: обучать отдельную модель под каждое целевое значение? Или как-то по другому? Речь про регрессионную модель
Ребята, привет. Использую для обучения классификатора CrossEntropy loss. На CPU работает. На GPU выдаёт: Attempt to call single feature writer on packed feature writer. Подскажите, пожалуйста, что это может значить?
Меня удивило почему Tesla K80 стоит в разы дешевле остальных видеокарт. Если основные GTX начинаются от 120 000 р. и 250 000 р. , то Tesla k80 в разы дешевле.