Size: a a a

ML Boot Camp Official

2019 December 05

K

K-S in ML Boot Camp Official
И откуда вообще она такая выводится)
источник

NB

Nikolai Bragin in ML Boot Camp Official
Ты троллишь что ли. Моя шутка состояла в том, что собеседование длиной в 10 минут очень может быть - если человек не может ответить на элементарные вопросы.
источник

AT

Alexey Tikhonov in ML Boot Camp Official
А зачем уметь брать производные в заурядном дс ?
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in ML Boot Camp Official
K-S
И откуда вообще она такая выводится)
Возьмём n частиц в объеме V и посчитаем статсумму Z в каноническом ансамбле...
источник

AT

Alexey Tikhonov in ML Boot Camp Official
Когда 90% работы именно такой, покрути данные да построй модельки
источник

AT

Alexey Tikhonov in ML Boot Camp Official
А то и 95
источник

K

K-S in ML Boot Camp Official
Ну чтоб как минимум понимать, что такое затухающий градиент, как один из банальных примеров
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
K-S
Ну чтоб как минимум понимать, что такое затухающий градиент, как один из банальных примеров
Затухающий градиент не нужен 90+% ДС.
источник

K

K-S in ML Boot Camp Official
Ну тогда это снова вопрос честолюбия
источник

K

K-S in ML Boot Camp Official
Не хочется быть совсем макакой
источник

AS

Alexander Sychikov in ML Boot Camp Official
Дмитрий Симаков
Затухающий градиент не нужен 90+% ДС.
Градиент не нужен в 90+% ДС
источник

MD

Mikhail Dektyarev in ML Boot Camp Official
а откуда она выводится?
от неё нужны:
-монотонность
-дифференцируемость
-пределы на бесконечностях
-выразимость производной через значение (чтобы легче градиенты считать)
вроде всё
источник

MD

Mikhail Dektyarev in ML Boot Camp Official
Alexander Sychikov
Градиент не нужен в 90+% ДС
дс не нужен в 90+% дс
источник

AS

Alexander Sychikov in ML Boot Camp Official
Mikhail Dektyarev
дс не нужен в 90+% дс
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Более того, вот я знаю о нем. Но на практике встречал пару раз. И то, мне проще было слой / архитектуру поменять, чем что-то там выдумывать и бороться.
источник

K

K-S in ML Boot Camp Official
Mikhail Dektyarev
а откуда она выводится?
от неё нужны:
-монотонность
-дифференцируемость
-пределы на бесконечностях
-выразимость производной через значение (чтобы легче градиенты считать)
вроде всё
Сигмоида? Ну из предположения, что случайный шум имеет логистическое распределение с нулевым средним
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Чиго
источник

K

K-S in ML Boot Camp Official
?
источник

MD

Mikhail Dektyarev in ML Boot Camp Official
K-S
Сигмоида? Ну из предположения, что случайный шум имеет логистическое распределение с нулевым средним
а что хорошего в логистическом распределении? колокольчиков куча
источник

K

K-S in ML Boot Camp Official
Сигмоида - это ведь значение функции распределения логистического распределения в точке (бета0 + бета1х1 итд)
источник