Size: a a a

КОНЧАЙ ИЛИ УМРИ

2021 February 09

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
щас почти везде ReLU и ее вариации
источник

P

Purple in КОНЧАЙ ИЛИ УМРИ
Alexander°
ну типа прям перемножение матриц с нуля итд
линала у меня курс с института пройденный, сяб
источник

T

Thanks ♡ in КОНЧАЙ ИЛИ УМРИ
Спасибо!!!
источник

P

Purple in КОНЧАЙ ИЛИ УМРИ
Alexander°
щас почти везде ReLU и ее вариации
Вот до этого пока не дошёл
источник

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
да эт нюансы
источник

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
зато на нейронках хорошо видно как работает вообще наука в целом
источник

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
все юзали сигмоид
источник

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
потом ОП
источник

P

Purple in КОНЧАЙ ИЛИ УМРИ
Alexander°
зато на нейронках хорошо видно как работает вообще наука в целом
Я не зная что это известная проблема сегодня голову ломал как один перцептрон научить XOR решать))
источник

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
появился ReLU, и все перешли на него, все везде стало лучше
источник

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
потом оп, swish
источник

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
в общем задача функции активации - добавить нелинейности в линейную функцию
источник

P

Purple in КОНЧАЙ ИЛИ УМРИ
Alexander°
в общем задача функции активации - добавить нелинейности в линейную функцию
Да, понимаю
источник

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
т.е. чтобы описывать более сложные кривые
источник

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
источник

P

Purple in КОНЧАЙ ИЛИ УМРИ
Purple
Да, понимаю
Ток единственное, не совсем понял почему везде пишут что со step функцией нельзя сделать backpropagation когда можно
источник

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
источник

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
Purple
Ток единственное, не совсем понял почему везде пишут что со step функцией нельзя сделать backpropagation когда можно
ну мб тогда была какаянить недиффиренцируемая функция там
источник

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
не знаю даже
источник

A

Alexander° in КОНЧАЙ ИЛИ УМРИ
так вот
источник