Size: a a a

ML Boot Camp Official

2017 February 17

AK

Alexander Kiselev (mortido) in ML Boot Camp Official
а у нас других не бывает
источник

KB

Kirill Bolonkin in ML Boot Camp Official
бывает, когда тут начинают что-то про машинное обучение разводить
источник

KB

Kirill Bolonkin in ML Boot Camp Official
идите в специализированные чаты!
источник

VM

Vladislav Myrov in ML Boot Camp Official
источник

VM

Vladislav Myrov in ML Boot Camp Official
Моя любимая картинка
источник

AA

Artem A in ML Boot Camp Official
👍
источник

KB

Kirill Bolonkin in ML Boot Camp Official
а за мою любимую картинку меня выгонят с позором :(
источник

AK

Alexander Kiselev (mortido) in ML Boot Camp Official
Vladislav Myrov
Моя любимая картинка
т.е. ты шаришь. Что там с обучающими выборками?)
источник

VM

Vladislav Myrov in ML Boot Camp Official
Боюсь, что без контекста непонятно)
источник

AA

Artem A in ML Boot Camp Official
Есть ощущение, что это такая изысканная подъёжка
источник

AK

Alexander Kiselev (mortido) in ML Boot Camp Official
ну я просто совсем зеленый и пытаюсь понять как делают многослойные модели.
т.е. у нас изначально есть X u y и мы получается первый слой обучаем используя только половину этих данных.
Потом вторую половину Х скармливаем первому слоую для предсказания и на этих значениях обучаем второй слой?
источник

TG

Tatiana Gaintseva in ML Boot Camp Official
Alexander Kiselev (mortido)
ну я просто совсем зеленый и пытаюсь понять как делают многослойные модели.
т.е. у нас изначально есть X u y и мы получается первый слой обучаем используя только половину этих данных.
Потом вторую половину Х скармливаем первому слоую для предсказания и на этих значениях обучаем второй слой?
надеюсь, не для этой задачи?
источник

AK

Alexander Kiselev (mortido) in ML Boot Camp Official
ну если повезет то я попробовал бы, чем бог не шутит. Но я пару недель назад только в руки взял scikit
источник

VM

Vladislav Myrov in ML Boot Camp Official
Alexander Kiselev (mortido)
ну я просто совсем зеленый и пытаюсь понять как делают многослойные модели.
т.е. у нас изначально есть X u y и мы получается первый слой обучаем используя только половину этих данных.
Потом вторую половину Х скармливаем первому слоую для предсказания и на этих значениях обучаем второй слой?
если я правильно тебя понял, то ты говоришь про иное, нежели ситуация как на картинке
источник

AK

Alexander Kiselev (mortido) in ML Boot Camp Official
почему же?
источник

VM

Vladislav Myrov in ML Boot Camp Official
на картинке более хитрые stacked models, которые могут быть какими угодно
источник

VM

Vladislav Myrov in ML Boot Camp Official
многослойные же модели работают примерно так:
слой 1 -> слой 2 -> слой 3 -> ...
где на каждом слою каким-то образом данные обрабатываются и передаются дальше
источник

VM

Vladislav Myrov in ML Boot Camp Official
многослойные нейронные сети*
источник

AK

Alexander Kiselev (mortido) in ML Boot Camp Official
не, я про ансамбли, скорее
источник

AK

Alexander Kiselev (mortido) in ML Boot Camp Official
не совсем может верно выражаюсь и правильно использую терминологию
источник