Size: a a a

2019 May 08

PK

Pavel Klemenkov in Moscow Spark
Как эта ссыль вообще утекла так быстро?
источник

K

KrivdaTheTriewe in Moscow Spark
ахахахахахха, я не знаю, в de кто-то кинул
источник

DZ

Dmitry Zuev in Moscow Spark
vc написал
источник

DU

Dmitry Ursegov in Moscow Spark
И правда крутой, аналог ШАДа?
источник

PK

Pavel Klemenkov in Moscow Spark
Dmitry Ursegov
И правда крутой, аналог ШАДа?
Ну, такая задумка, да
источник

DU

Dmitry Ursegov in Moscow Spark
Круто
источник

N

Nikolay in Moscow Spark
Для критики и чтобы дискуссия завязалась  скажу ). А что крутого ?  Дата саенс - это модно , но не круто. Люди в основном тратят время на подготовку данных , а потом запускают гридсеарч. К чему в конечном счёте это придет ? Останется только подготовка данных. Все же развивается в направлении tpot. Можностей только не хватает.
источник

K

KrivdaTheTriewe in Moscow Spark
Nikolay
Для критики и чтобы дискуссия завязалась  скажу ). А что крутого ?  Дата саенс - это модно , но не круто. Люди в основном тратят время на подготовку данных , а потом запускают гридсеарч. К чему в конечном счёте это придет ? Останется только подготовка данных. Все же развивается в направлении tpot. Можностей только не хватает.
Я вот не знаю стохастическую математику к сожалению
источник

N

Nikolay in Moscow Spark
Ну и что. Ты можешь запускать cstboost или xgboost и без этого . Когда то я ее знал и уже забыл
источник

ЕГ

Евгений Глотов... in Moscow Spark
Как нам говорил препод по базам данных, "Работа у вас всегда будет")
источник

ЕГ

Евгений Глотов... in Moscow Spark
В смысле про обработку данных)
источник

N

Nikolay in Moscow Spark
Соглашусь , что это круто в том плане , что математика красива сама по себе. А практический выхлоп ?
источник

K

KrivdaTheTriewe in Moscow Spark
Ты понимаешь суть
источник

K

KrivdaTheTriewe in Moscow Spark
Как и почему
источник

N

Nikolay in Moscow Spark
Суть там не понимают. Если бы понимали , то не использовали гридсеарч. В линейной регрессии и решающих деревьях ещё понимают, а где уже сложнее модели - бустинг. Уже все .
источник

N

Nikolay in Moscow Spark
На Ютьюбе есть лекции Воронцова.смотрели же наверное их.  В одной из них ,если не ошибаюсь , он и говорит почти про это.
источник

PK

Pavel Klemenkov in Moscow Spark
Nikolay
Суть там не понимают. Если бы понимали , то не использовали гридсеарч. В линейной регрессии и решающих деревьях ещё понимают, а где уже сложнее модели - бустинг. Уже все .
Это чушь. Гридсерч используют для подбора гиперпараметров, те параметров, которые не учатся из данных. При чем тут понимание?
источник

AS

Aleksandr Severinov in Moscow Spark
Pavel Klemenkov
Это чушь. Гридсерч используют для подбора гиперпараметров, те параметров, которые не учатся из данных. При чем тут понимание?
Ну типо если понимаешь, какую функцию оптимизируешь и как, то гиперпараметры сразу из головы берешь. Но чем плох грид серч, я не понял :)
источник

PK

Pavel Klemenkov in Moscow Spark
Понять, какую функцию ты оптимизируешь легко на игрушечных примерах с двумя измерениями. Когда их тысячи и сотни тысяч, с кучей локальных оптимумов - это уже анрил.
источник

AA

Anton Alekseev in Moscow Spark
Aleksandr Severinov
Ну типо если понимаешь, какую функцию оптимизируешь и как, то гиперпараметры сразу из головы берешь. Но чем плох грид серч, я не понял :)
Да, тоооочно, из головы...) грид затратный просто, вот и не понравилось человеку видимо:) А вообще это заблуждение по поводу ds как у Николая, стало довольно распространённым из-за волны хайпа и кучи желающих зарабатывать 300к в сек, но это не ds специалисты, к сожалению.
источник