Size: a a a

2019 November 06

Y

Young Freud 💎 in catboost_ru
источник

E

Elena in catboost_ru
все верно - серое это фичи категориальные
источник

Y

Young Freud 💎 in catboost_ru
Elena
все верно - серое это фичи категориальные
но я в cat_features указывал все столбцы, разве не должно тогда все быть серым?
источник

Y

Young Freud 💎 in catboost_ru
Или это ещё как-то вычисляется?
источник

E

Elena in catboost_ru
мы потом смотрим серые категориальные смотрем индивидуально
источник

E

Elena in catboost_ru
щас
источник

MK

Mikhail Kovalchuk in catboost_ru
Если категориальные признаки инты, то они раскрашиваются шапом
источник

E

Elena in catboost_ru
+
источник

Y

Young Freud 💎 in catboost_ru
И ещё хотел спросить, можно ли как-то получить результат не в виде графика, а в виде таблицы , вроде такого: фича 1 = 28; фича 2 = 42...,   => класс 1  ?
источник

Y

Young Freud 💎 in catboost_ru
Просто, чтобы мне точно сказали, какое значение к какому предсказанию приведёт :)
источник

Y

Young Freud 💎 in catboost_ru
Или может кто-нибудь объяснить, как интерпретировать эти результаты? Вот у меня есть два класса и 277 фич, как понять, какое значение и какой фичи влияет на результат классификации? :)
источник

DK

Dmitriy Kruchinin in catboost_ru
Серые точки это баг библиотеки SHAP https://github.com/slundberg/shap/issues/406
источник

AD

Anna Veronika Dorogush in catboost_ru
Серые точки рисуются для строк и нанов. Если катфичи строковые, то тоже будет серый цвет.
источник

Y

Young Freud 💎 in catboost_ru
Anna Veronika Dorogush
Серые точки рисуются для строк и нанов. Если катфичи строковые, то тоже будет серый цвет.
А насчёт второго вопроса? :)
источник

DK

Dmitriy Kruchinin in catboost_ru
SHAP показывает насколько изменение конкретного признака влияет на изменение предсказания модели
источник

DK

Dmitriy Kruchinin in catboost_ru
На графике признаки отсортированы по этой характеристике, то есть самый верхний влияет больше всего, нижний меньше всего
источник

DK

Dmitriy Kruchinin in catboost_ru
Надо понимать что это анализ модели а не анализ исходного датасета, например, если есть скоррелированные признаки очень важные, то они по важности могли уехать вниз из-за random strength в сплитах
источник

Y

Young Freud 💎 in catboost_ru
Понял, спасибо большое :)
источник
2019 November 07

IL

Ivan Lyapin in catboost_ru
Привет. Пытаюсь разобраться как считаются feature importances.
Possible values:
FeatureImportance: Equal to PredictionValuesChange for non-ranking metrics and LossFunctionChange for ranking metrics (the value is determined automatically)

Что здесь имеется в виду под ranking? Logloss - это non-ranking?
источник

IL

Ivan Lyzhin in catboost_ru
Вот ranking (для задач ранжирования) метрики: https://catboost.ai/docs/concepts/loss-functions-ranking.html
Остальные, соответственно, не ranking
источник