Size: a a a

Data Science Chat

2021 October 07

AK

Alex K in Data Science Chat
+
источник

AK

Alex K in Data Science Chat
не на одной
источник

A

Alex96 in Data Science Chat
Пасаны привет, может кто сталкивался с таким ?
Хочу изучить uplift , а какая-то проблема с датасетом , можно как-то вылечить?
источник

A

Andrey in Data Science Chat
надо карту выручайка из пятёрочки, судя по 403
источник

A

Alex96 in Data Science Chat
кек)
источник

A

Andrey in Data Science Chat
скорее всего на Амазоне какой логин/пароль поменяли, и в либе слетели доступы, вероятно

загляните в issues на github, может вы не одиноки
источник

D

Dima in Data Science Chat
Датасет можно найти на кагле и на гите у кого-то вроде лежит
Можно погуглить про сореву аплифт от х5 и должно найти
источник
2021 October 08

D

Dmitry in Data Science Chat
Всем привет.
Мне нужно натренировать 3 модели последовательно.
Хочу попробовать так:
1) Модель 1 проходит кросс-валидацию из 10 фолдов. Предикт каждого тестового фолда сохраняется. Получаем датасет такого же объёма, но который был постороен только на данных валидации, без данных тренировки.
2) Кормим сгенерированный датасет второй модели таким же способом, разбивая на 10 фолдов и формируем датасет для 3-й модели.
источник

D

Dmitry in Data Science Chat
Что можете сказать о таком подходе?
источник

🐙

🐙 in Data Science Chat
По тому, как вы описали, у вас будет не три датасета, а три таргета.
источник

🐙

🐙 in Data Science Chat
Если обучать вторую модель на предиктах первой, то, я предположу, ошибка будет ~ошибка первой модели * ошибка второй модели
источник

D

Dmitry in Data Science Chat
Предикты моделей смешиваются с входящими данными в первую модель. Я таким образом хочу избежать лика по тренировочным данным.
источник

ВК

Вячеслав Колосков... in Data Science Chat
а чем обычный стэкинг не устраивает?
источник

D

Dmitry in Data Science Chat
сильное переобучение
ищу способы решения
источник

ВК

Вячеслав Колосков... in Data Science Chat
почему вы думаете что ваш метод будет меньше переобучаться?
источник

ВК

Вячеслав Колосков... in Data Science Chat
помоему это тоже стекинг, только более хитрый
источник

D

Dmitry in Data Science Chat
потому что следующие модели не будут видеть предсказания на тренировочных данных вообще
у меня не несколько параллельных моделей с одним мета-учеником, а подряд модели, которые кормят все данные одна в другую
источник

ВК

Вячеслав Колосков... in Data Science Chat
так при стэкинге метаалгаритм тоже не должен видеть предсказаний на тренировочных данных
источник

D

Dmitry in Data Science Chat
да, но разве при этом не теряется часть данных?
источник

ВК

Вячеслав Колосков... in Data Science Chat
может теряться а может и нет. смотря как построите обучние
источник