Size: a a a

Глубинное обучение (группа)

2017 March 01

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
но, разумеется, если трактовать активацию как слой, то сколько вошло, столько и вышло.
источник

NK

ID:183006445 in Глубинное обучение (группа)
Fyodor Zhdanov
любая размерность входа, любая выхода.
как это в формулу подставить? по формуле строго один к одному размерность должна быть
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
I have a x (входной слой). I have an y (выход).  y_preact=Wx, y =f(y_preact) (любой размерности).
источник

NK

ID:183006445 in Глубинное обучение (группа)
Fyodor Zhdanov
I have a x (входной слой). I have an y (выход).  y_preact=Wx, y =f(y_preact) (любой размерности).
щито?
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
Активация размерность не меняет. Она меняется матрицей весов.
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
и активацию за слой не считают, т.к. не учится.
источник

NK

ID:183006445 in Глубинное обучение (группа)
бр... так её вообще не учат?
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
Как ты слой активации обучишь? Что там варьировать будешь? Он тупо участвует в "переделке" обратно распространяемой ошибки.
источник

NK

ID:183006445 in Глубинное обучение (группа)
что такое слой активации?
источник

NK

ID:183006445 in Глубинное обучение (группа)
слой это слой. активация это активация - функция между слоями, которая колдует с весами
источник

NK

ID:183006445 in Глубинное обучение (группа)
софтмакс не может участвовать в бэкпропе по определению, поскольку недифференцируем
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
Ээээ, почему не дифференцируем?
источник

NK

ID:183006445 in Глубинное обучение (группа)
по формуле
источник

NK

ID:183006445 in Глубинное обучение (группа)
и чиста по логике
источник

NK

ID:183006445 in Глубинное обучение (группа)
как у меня слой с суммой весов 1 превратится в слой с суммой неизвестно?
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
Т.е. частную производную по какому-то элементу не взять?
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
Знаменателя в нуле нет, всюду гладкая к тому же, а дифференциал не берется?
источник

NK

ID:183006445 in Глубинное обучение (группа)
Fyodor Zhdanov
Т.е. частную производную по какому-то элементу не взять?
я не знаю, взять или не взять, для бэкпропа нужна производная функция и всё
источник

NK

ID:183006445 in Глубинное обучение (группа)
а у софтмакса её нет
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
Тогда наверное стоит на английской вики удалить неправильную часть с формулой частной производной софтмакса? https://en.wikipedia.org/wiki/Softmax_function
источник