Size: a a a

Machine learning

2021 January 21

VS

Vladislav Skachkov in Machine learning
Anton Rogozin
Если не ошибаюсь, подписка на скриншоте распространяется только на этот курс (специализацию). Есть крутая подписка coursera plus, которая содержит определенное количество курсов, которые можно проходить на выбор. Также можно подать мат помощь, подробности в FAQ
То есть я плачу, у меня есть месяц на то, чтобы пройти этот курс, а чтобы делать диплом - ещё раз заплатить, верно?
источник

AR

Anton Rogozin in Machine learning
Vladislav Skachkov
То есть я плачу, у меня есть месяц на то, чтобы пройти этот курс, а чтобы делать диплом - ещё раз заплатить, верно?
Лучше спросить у техподдержки курсеры для надежности
источник

VS

Vladislav Skachkov in Machine learning
Anton Rogozin
Лучше спросить у техподдержки курсеры для надежности
Хорошо, спасибо за ответы!
источник

N

Nurtau in Machine learning
Всем привет! Подскажите пожалуйста тут точно должно быть деление на l ?
источник

SS

Sergey Salnikov in Machine learning
можно делить, можно не делить, все равно это константа, можно перенести её в "эта"
источник

A

Alexander in Machine learning
Посоветуйте пожалуйста курсы или что-то такого планы чтоб заботать алгоритмы на уровне собесов
Рассматривал курс алгоритмов яндекс практикума, но дороговато(
источник

DB

Dmitry Brazhenko in Machine learning
Alexander
Посоветуйте пожалуйста курсы или что-то такого планы чтоб заботать алгоритмы на уровне собесов
Рассматривал курс алгоритмов яндекс практикума, но дороговато(
leetcode
собственно говоря, для этого эта платформа и сделана. там огромный скоп задач , разбитых по темам + разборы/discussion...
источник

M

Michael in Machine learning
И куча книг и статей с примерами и чего угодно вплоть до примеров собеседований на ютубе
источник

Ю

Юрий in Machine learning
Nurtau
Всем привет! Подскажите пожалуйста тут точно должно быть деление на l ?
Вроде в нотации курса за l обозначен размер обучающей выборки, поэтому нет, логично его из этой записи убрать. Иначе, формально, эффективный learning rate при SGD будет зависеть от размера выборки, что странно.
источник

N

Nurtau in Machine learning
Юрий
Вроде в нотации курса за l обозначен размер обучающей выборки, поэтому нет, логично его из этой записи убрать. Иначе, формально, эффективный learning rate при SGD будет зависеть от размера выборки, что странно.
Хорошо, спасибо
источник

SS

Sergey Salnikov in Machine learning
зависит от того, что мы минимизируем, если среднее сумм, то там l есть, если просто сумму, то без l.
источник

SS

Sergey Salnikov in Machine learning
если размер выборки изменился, то надо подбирать не только новый lr, но и другие параметры
источник

Ю

Юрий in Machine learning
Sergey Salnikov
зависит от того, что мы минимизируем, если среднее сумм, то там l есть, если просто сумму, то без l.
Да, как раз при SGD нет суммы по всем примерам в выборке, поэтоме нет и l
источник

SS

Sergey Salnikov in Machine learning
l - это усреднение
источник

Ю

Юрий in Machine learning
Sergey Salnikov
l - это усреднение
Да, усреднение. Или Вы к тому, что всегда пишем l, только в SGD оно равно 1?
источник

SS

Sergey Salnikov in Machine learning
в общем, делают без всяких расшаркиваний, просто:
weights.data -= lr * weights.grad
источник

GW

Green Wizard in Machine learning
Sergey Salnikov
если размер выборки изменился, то надо подбирать не только новый lr, но и другие параметры
О, а я думал то я жопорук и не получается как у дядек с интернета: тот же код, дефолтный, для всех задач
источник

SS

Sergey Salnikov in Machine learning
если размер выборки увеличился в 2 раза, то мы просто делаем lr в 2 раза больше, это всё барахло, типа 2 и l, уходит в lr
источник

Ю

Юрий in Machine learning
Sergey Salnikov
если размер выборки увеличился в 2 раза, то мы просто делаем lr в 2 раза больше, это всё барахло, типа 2 и l, уходит в lr
Похоже это вопрос договоренностей) Например, sklearn утверждает, что не делит на l
источник

Ю

Юрий in Machine learning
Я понимаю, что мы оба правы и говорим про одно и то же)
источник