In this paper, we present an extensive empirical comparison of XGBoost, LightGBM and CatBoost, three popular GBDT algorithms, to aid the data science practitioner in the choice from the multitude of available implementations
Да, статью видели. Там плохо сделано сравнение - они обучаются на 40,80,160,320,480 итераций на больших датасетах, на этих датасетах для дообучения всем алгоритмам нужно несколько тысяч итераций. Мы им напишем письмо, чтобы исправили, а то люди читают.
Добрый день. Новичок в МЛ извиняюсь возможно за очевидный вопрос. Подскажите если целевая метка категориальная то ее тоже надо задекларировать перед построением модели cat_features = categorical_features_indices и какой синтаксис у декларирования категориальных переменных categorical_features_indices = указываем название столбцов или как то еще...
Добрый день. Новичок в МЛ извиняюсь возможно за очевидный вопрос. Подскажите если целевая метка категориальная то ее тоже надо задекларировать перед построением модели cat_features = categorical_features_indices и какой синтаксис у декларирования категориальных переменных categorical_features_indices = указываем название столбцов или как то еще...
Ты указываешь индексы категориальных столбцов. Целевая метка не является фичей, поэтому ее указывать не надо, если я правильно понял вопрос