Size: a a a

Machine learning

2021 January 20

GZ

Grigoriy Zakharkin in Machine learning
Sergey Salnikov
не хватает курса - как правильно готовить стекинги
Точно. Может курс-это слишком много, но может посоветуете хорошие статьи или видео?
источник

i

igor in Machine learning
и курс о том что такое стэкинги
источник

SS

Sergey Salnikov in Machine learning
в sklearn есть готовые стекинги
источник

K

K-S in Machine learning
Скорее нужен курс, как не упороться и сделать честную валидацию для стекинга с кол-вом уровней > 2
источник

SS

Sergey Salnikov in Machine learning
одноуровневый стекинг - не есть зло, полезная вещь, всегда улучшает, и для этого в курсе можно подвести теорию
источник

K

K-S in Machine learning
Так любой стекинг не есть зло. Зависит от цели)
источник

SS

Sergey Salnikov in Machine learning
>2 - зло
источник

K

K-S in Machine learning
Почему?
источник

K

K-S in Machine learning
В соревнованиях — ок
источник

K

K-S in Machine learning
Sergey Salnikov
одноуровневый стекинг - не есть зло, полезная вещь, всегда улучшает, и для этого в курсе можно подвести теорию
Так а обоснование будет такое же, как и почему случайный лес работает
источник

SS

Sergey Salnikov in Machine learning
вот не совсем. случаный лес (для регрессии) - это мы уточняем нашу случайную величину (скор) большим количество измерений (прогон на похожей модели), в результате получается эффект уменьшения дисперсии при сохранении среднего. в стэкинге же, насколько я понял, микс экспертов, каждый из которых улучшает модель в какой-то определенной модели (в метрической, линейно, и т.д.). микс разноплановых экспертов работает лучше, чем усреднение одноплановых
источник

K

K-S in Machine learning
так алгоритмы разные -> вот и уменьшение дисперсии, нет? Ну и усреднение заменяют моделью посложнее
источник

K

K-S in Machine learning
в лесу максимально пытаются сделать деревья разными (бэггинг, фичи из случайно отобранного подмножества итд), но дерево все равно остается деревом. А тут деревья меняют на алгоритмы из разных семейств, но суть, кажется, остается той же
источник

AO

Alex Ololo in Machine learning
когда вы работаете вообще?)
источник

K

K-S in Machine learning
Alex Ololo
когда вы работаете вообще?)
в перерывах))
источник

AG

Artyom Gruzdev in Machine learning
Sergey Salnikov
не хватает курса - как правильно готовить стекинги
как раз делаю такой, действительно, инфы мало
источник

SS

Sergey Salnikov in Machine learning
круто, маякни тут когда будет готов
источник

SS

Sergey Salnikov in Machine learning
K-S
так алгоритмы разные -> вот и уменьшение дисперсии, нет? Ну и усреднение заменяют моделью посложнее
rf регрессия - усреднение многочисленных несмещенных измерений на одноплановом базовом алгоритме, а стекинг - зазноплановые эксперты, именно разноплановость дает прирост в качестве, каждый эксперт вытягивает что-то свое из данных (метрические свойства, линейность). ну и схема обучения другая - через cross_val_predict
источник

K

K-S in Machine learning
так необязательно алгоритмы будут из разных семейств в стекинге (лгб и катбуст, допустим). Ну и обучаться они могут на разных наборах данных. Стекинг - это ж не только про diversity моделей, это про diversity предсказаний. Тут и разные наборы данных, и разные оптимизируемые функции, ну и разные алгоритмы. Просто более общий подход к механизму леса, имхо
источник

SS

Sergey Salnikov in Machine learning
ну ещё всякие кагловские трики, типа прогон по нескольким сидам, чтобы на мета-модель стэкинга пришли устаканенные данные, чтобы модель не обучалась на шуме
источник