Size: a a a

Machine learning

2020 June 25

I

Ilyas in Machine learning
Спасибо, поизучаю
источник

I

Ilyas in Machine learning
Ibp
все же еще зависит, сколько у вас времени есть на работу, поэтому выбрал оптимальный путь
А если запилить перебор фичей на меньшей кратно подвыборке получиться что то адекватное?
источник

I

Ibp in Machine learning
да должно, я отбирал где-то на 15%, но лучше больше
источник

I

Ilyas in Machine learning
Ibp
да должно, я отбирал где-то на 15%, но лучше больше
Круто
источник

AK

Alex K in Machine learning
Народ, подскажите, в C3W4 (постнаука) возможно обновить работу? Или там нет права на ошибку?
источник

I

Ibp in Machine learning
Alex K
Народ, подскажите, в C3W4 (постнаука) возможно обновить работу? Или там нет права на ошибку?
да любую можно, просто если есть уже отзовы о работе они будут аннулированы
источник

AK

Alex K in Machine learning
Ibp
да любую можно, просто если есть уже отзовы о работе они будут аннулированы
В предыдущих случаях так и было, а сейчас нет кнопки или ссылки "редактировать работу". И новую прицепить некуда
источник

I

Ibp in Machine learning
Alex K
В предыдущих случаях так и было, а сейчас нет кнопки или ссылки "редактировать работу". И новую прицепить некуда
да, у меня тоже нет, но видимо, эта работа необязательна и не влияет на результат
источник

IL

Ignat Levagin in Machine learning
источник

АГ

Артём Глазунов... in Machine learning
Ibp
я делал через SelectKBest из sklearn.feature_selection, мне помогло
Тут есть подводные камни, поскольку отбор ведётся по связи данного конкретного признака с откликом, ищет наиболее близкий к коллинеарности, грубо говоря. А ведь если учесть взаимодействия между признаками, получится, что наиболее важные векторы признаков могут быть направлены совсем в другую сторону, чем отклик, но по векторной сумме именно его и давать.. У меня просадка была по kbest,  помог сильно просто ручной перебор признаков по одному, feature_importances помог здесь, кстати
источник

AP

Alexander Petrenko in Machine learning
Немного офтопа
источник

AP

Alexander Petrenko in Machine learning
источник

АГ

Артём Глазунов... in Machine learning
Alexander Petrenko
👍
источник

АГ

Артём Глазунов... in Machine learning
А вообще, одбор признаков по одному весьма случайный процесс, как я понял, важность признаков часто кроется в их взаимно влиянии. Наверное, помочь может последовательное применение нескольких стратегий и выбор чего-то среднего. Но это, если признаков немного и времени достаточно.
источник

I

Ibp in Machine learning
Артём Глазунов
Тут есть подводные камни, поскольку отбор ведётся по связи данного конкретного признака с откликом, ищет наиболее близкий к коллинеарности, грубо говоря. А ведь если учесть взаимодействия между признаками, получится, что наиболее важные векторы признаков могут быть направлены совсем в другую сторону, чем отклик, но по векторной сумме именно его и давать.. У меня просадка была по kbest,  помог сильно просто ручной перебор признаков по одному, feature_importances помог здесь, кстати
а вы для чего делали: для регрессии или классификации? и какие у вас входные фичи были: числовые или категориальные и какие выходные данные предсказания: числовые или категориальные?
источник

АГ

Артём Глазунов... in Machine learning
Я привёл пример по рядам в 6 курсе, регрессия. Там я по feature_importances заметил, что если использовать прогноз аримы, то часть моделей под него подстраиваться просто, сплитит только по нему. Я его убрал, качество улучшилось проц на 20%. Также было ещё снесколькими признаками. Также я заметил, что если комбинировать важные признаки, то их произведения также сильно улучшает качество, поэтому их добавил.
источник

АГ

Артём Глазунов... in Machine learning
Фичи числовые.
источник

I

Ibp in Machine learning
ну фючеимпотанс и селекткбест там разные фичи выделяют
источник

АГ

Артём Глазунов... in Machine learning
С категориальными я испытал боль в проекте по оттоку, поскольку бинарные в основном, потеряли свою важность для бустинга, но несколько бинарных все же влияли очень сильно. Сейчас хочу вернуться к соревнования и попробовать новые стратегии кодирования.
источник

АГ

Артём Глазунов... in Machine learning
Ibp
ну фючеимпотанс и селекткбест там разные фичи выделяют
Kbest я пробовал, выбирал 50 важных, он немного просадил, поскольку не учитывал взаимосвязи. Но если я добавил бы взаимосвязи отдельно, возможно качество улучшилось бы. Но вот как быть с теми, которые в векторной сумме дают отклик? Их же удаляет, и произведения признаков не спасёт..
источник