Size: a a a

Machine learning

2020 April 29

SD

Sergey Dudoladov in Machine learning
конечно можете
источник

SD

Sergey Dudoladov in Machine learning
фиче инжиниринг как по другому делать)
источник

SD

Sergey Dudoladov in Machine learning
оценка идет по рок-аук предсказаний на тестовой выборке
источник

GB

Gennady Borisov in Machine learning
Sergey Dudoladov
оценка идет по рок-аук предсказаний на тестовой выборке
Т.е. тестовую выборку трогать нельзя, наны заполнять, совместно с тренировочной и т.д=)?
У меня скорее вопрос, тестовые данные должны оставаться сырыми, который просто в модель обученную на тренировочной выборке вставлять. Или тренировочную выборку тоже можно предобрабатывать?
источник

SD

Sergey Dudoladov in Machine learning
не совсем понимаю вопрос: очевидно что если вы обучаете вашу модель на определенном признаковом пространстве то и предсказания на тесте вам надо делать в том же пространстве
источник

SD

Sergey Dudoladov in Machine learning
соответственно если вы добавляете например новый признак "день недели"
источник

SD

Sergey Dudoladov in Machine learning
то вы его добавите и в train и test
источник

SD

Sergey Dudoladov in Machine learning
то есть по факту в соревновании вы берете и тестовые и обучающие данные, преобразуете их до желаемого вами уровня
источник

SD

Sergey Dudoladov in Machine learning
добавляете фичи или убираете лишние, заполняете наны как вам хочется
источник

◇Сущ in Machine learning
Дорого времени суток! Кто-нибудь сталкивался с таким?
https://pastebin.com/m1Zv9HR3
источник

K

K-S in Machine learning
Gennady Borisov
Т.е. тестовую выборку трогать нельзя, наны заполнять, совместно с тренировочной и т.д=)?
У меня скорее вопрос, тестовые данные должны оставаться сырыми, который просто в модель обученную на тренировочной выборке вставлять. Или тренировочную выборку тоже можно предобрабатывать?
Если вы имеете в виду, можно ли на тренировке так или иначе задействовать информацию из теста, то ответ такой: с точки зрения реальной жизни — нет, нельзя, это лик, если же цель получить максимальное качество на конкретном наборе тестовых данных (о чем практически все соревнования), то, конечно, можете
источник

PK

Pavel Kozlov in Machine learning
Всем привет. Можно оффтоп вопрос не по курсу. Читаю статьи про обратное распространение ошибки, и есть 1 момент который в разных статьях по разному.
1) Находим ошибку выходного слоя b_final = y - predict, потом распространяем на предыдушие слои умножая ошибку на веса которые ведут к этой ошибке. Тоесть веса предыдущего слоя будут b5 = b_final*w51 + b_final*w52 и т.п.
Потом когда ошибки всех нейронов найдены уже находится дульта на которые меняем веса. Wdelta = шаг * ошибку текущего нейрона * производную функции (сигмойды) * производную внутренней функции тоесть w1*x1+w2*x2 и т.п.

и другой вариант
2) b_final = (y - predict) * производная функции (сигмойды)
Дальше так же эту ошибку растространяем по весам и итоговая дельта будет равна уже
Wdelta = шаг * ошибка текущего нейрона (внутри неё уже идет умножение на производную сигмойды) * производную внутренней функции

И потом растространение идёт дальше

В первом варианте мы все ошибки посчитали сразу ещё не взяв ни одну производную как бы.

Или это одно и тоже?! вроде нет
источник

PK

Pavel Kozlov in Machine learning
первый вариант
источник

PK

Pavel Kozlov in Machine learning
второй
источник

K

K-S in Machine learning
Прям очень плохие картинки. Хоть бы было подписано, что есть j,k.

А схема там одна: получаем предикт модели в выходном слое, считаем значение ошибки, после чего начинаем двигаться в обратную сторону. Берём производные по правилу цепочки: сначала производную лосс функции по выходу из сети, потом то домножаем на производную функции активации с этого выходного нейрона по его входу и так далее вглубь
источник

PK

Pavel Kozlov in Machine learning
Понял значит второй вариант
источник

PK

Pavel Kozlov in Machine learning
источник

PK

Pavel Kozlov in Machine learning
значит в этой статье не верно?
источник

IM

Ivan Malyshenko in Machine learning
Добрый день
источник

IM

Ivan Malyshenko in Machine learning
прохожу курс 1 неделя 4. подскажите как мне правильно построить Probability density function
источник