Size: a a a

Machine learning

2021 January 26

i

igor in Machine learning
Нувот у тебя миллиард данных из равномерно го распределения. Можно все выкинуть и оставить лишь одно два числа
источник

GW

Green Wizard in Machine learning
там нужно загружать обученные сетки или тренировать у них же? и вообще можно ли сетками решать? а то как-то там все примеры с рукописными агентами
источник

K

K-S in Machine learning
Green Wizard
там нужно загружать обученные сетки или тренировать у них же? и вообще можно ли сетками решать? а то как-то там все примеры с рукописными агентами
можно сетками, если удастся завести, конечно
источник

GW

Green Wizard in Machine learning
в смысле, если удастся? о.о
источник

K

K-S in Machine learning
Green Wizard
в смысле, если удастся? о.о
судя по отзывам с других RL соревок на каггле, полноценный Deep Reinforcement не всегда получается сделать сильнее правил/простых стат моделей
источник

GW

Green Wizard in Machine learning
Ааа, думал лимиты там и поэтому проблемно) хз даже, мне показалось простым задание о.о посмотрим
спасибо, кстати, что сообщили о соревновании
источник

GW

Green Wizard in Machine learning
а имеет ли значение порядок сэмплов в батче? скажем, по каким-то причинам, мы выбрали упорядоченные сэмплы 1, 2 и т.д. для батча... что даст перетасовка такого батча? ничего? ведь лосс, вроде, будет тем же

даже не то чтоб упорядоченные, а сильно скоррелированные
источник

SS

Sergey Salnikov in Machine learning
батч должен быть просто репрезантативным, чтобы его поверхность лосса была похожа на поверхность лосса на всей выборке, чтобы итерации шли в правильном направлении.
источник

GW

Green Wizard in Machine learning
Sergey Salnikov
батч должен быть просто репрезантативным, чтобы его поверхность лосса была похожа на поверхность лосса на всей выборке, чтобы итерации шли в правильном направлении.
т.е. нет смысла сам батч доп. shuffle?
источник

SS

Sergey Salnikov in Machine learning
shuffle как раз и делает выборку репрезентативной, лишним не будет
источник

SS

Sergey Salnikov in Machine learning
на производительность это не сказывается, т.к. на самом деле перетасовывается массив индексов доступа к данным, а не самые данные
источник

GW

Green Wizard in Machine learning
уточню, это если оно может случайно ДОБИРАТЬ или в принципе оно влияет? вопрос не в 123vs150, а в 123vs231
источник

SS

Sergey Salnikov in Machine learning
в общем случае, неизвестно, в каком порядке поступят данные, могут и коррелированное группироваться, что замедлит сходимость, поэтому при разбиении на батчи лучше перемешивать. достаточно один раз на глоальном уровне, как это делается например в pytorch DataLoader с флагом shuffle=true. после того, как батч получен, его мешать не надо, т.к. там все равно выполняются обычные матричные операции, индифферентные к порядку сэмплов
источник

GW

Green Wizard in Machine learning
спасибо) правда стоило уточнить, что речь про RL и on-policy, а там особо не пошафлить на уровне "датасета", поэтому и спросил, а то вдруг прям влияет  порядок внутри батча
источник
2021 January 27

M

Makar in Machine learning
Скажите пожалуйста , в задании 2 #C1W2 нужно найти коэффициенты прямой w0 и w1 соответсвенно при заданных точках. Но функция scipy.linalg.solve находит сами аргументы при заданных коэффициентах, тогда как реализовать нахождение коэффициентов ?
источник

MD

Misha Dolbnin in Machine learning
Смотри, там фишка в том, что у тебя есть значения x и при подстановке в каждое слагаемое у тебя получается выражение в котором в роли неизвестных уравнения выступают веса
источник

MD

Misha Dolbnin in Machine learning
То есть
источник

MD

Misha Dolbnin in Machine learning
У тебя есть w0+w1*x + w2*x*x=f(x)
источник

MD

Misha Dolbnin in Machine learning
Допустим x=2
источник

MD

Misha Dolbnin in Machine learning
Тогда, к примеру
источник