Size: a a a

Глубинное обучение (группа)

2017 March 01

NK

ID:183006445 in Глубинное обучение (группа)
Fyodor Zhdanov
Тогда наверное стоит на английской вики удалить неправильную часть с формулой частной производной софтмакса? https://en.wikipedia.org/wiki/Softmax_function
там пример есть, напиши формулу как имея выходной слой получить входной. из примера
источник

NK

ID:183006445 in Глубинное обучение (группа)
ответ: никак
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
ID:183006445
как у меня слой с суммой весов 1 превратится в слой с суммой неизвестно?
правильно ли я понимаю, что в вашем понимании backprop-алгоритм на слое где-то в середине за один шаг сразу может сделает так, чтобы ошибка убиралась полностью или, что сумма выходов какого-то промежуточного слоя обязательно должна быть произвольной?
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in Глубинное обучение (группа)
ID:183006445
как у меня слой с суммой весов 1 превратится в слой с суммой неизвестно?
Хм, а как мы тогда пулинг дифференциируем по такой логике
источник

NK

ID:183006445 in Глубинное обучение (группа)
суть бэкпропа в том что функция по которой колдовали над весами - дифференцируема. то есть можно в обратную сторону колдовать
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
дифференциируемая не значит обратимая. Софтмакс - дифференциируемая. И плюнь в лицо тому, кто утверждает обратное.
источник

NK

ID:183006445 in Глубинное обучение (группа)
я плюну, когда по формуле смогу пример из вики решить
источник

NK

ID:183006445 in Глубинное обучение (группа)
как из [0.024, 0.064, 0.175, 0.475, 0.024, 0.064, 0.175] получить [1,2,3,4,1,2,3]
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
если это выход, то с помощью софтмакса никак. Если надо, чтобы на выходе такое было, то добавь еще слой без активации (с линейной активацией), и получай хоть какие значения (кроме бесконечностей). Заметь, софтмакс (в конце, посередине или еще где)  никак не мешает прохождению ошибки. Ясен пень, если нужны неограниченные значение на выходе софтмакс туда только идиот поставит.
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in Глубинное обучение (группа)
ID:183006445
как из [0.024, 0.064, 0.175, 0.475, 0.024, 0.064, 0.175] получить [1,2,3,4,1,2,3]
Ты точно понимаешь разницу между градиентом/производной и обратной функцией?
источник

A

Andrey in Глубинное обучение (группа)
ID:183006445
а только разными извращениями, типа кросэнтропии?
Набор слов какой-то. Начни с простого - https://www.quora.com/Is-the-softmax-loss-the-same-as-the-cross-entropy-loss
источник

A

Andrey in Глубинное обучение (группа)
Одного другого не заменяет и не противопоставляется, и тем более не является взаимная энтропия каким-то извращением.
источник

A

Andrey in Глубинное обучение (группа)
Взаимная энтропия в задаче классификации равна логистической функции потерь. Очевидно, что логистическая функция потерь имеет производную, причем эта функция дважды дифференцируемая - есть еще и вторая производная. Я даже постил когда-то пошаговый вывод (п.6): http://biostat-r.blogspot.com/2016/08/xgboost.html
источник
2017 March 02

NK

ID:233895288 in Глубинное обучение (группа)
https://t.me/vr_developers
Всем привет!
Объединяем VR разработчиков
источник
2017 March 09

NK

ID:183006445 in Глубинное обучение (группа)
источник

NK

ID:183006445 in Глубинное обучение (группа)
Памятник нейрону

@The_Atheist
источник

NK

ID:183006445 in Глубинное обучение (группа)
источник

NK

ID:183006445 in Глубинное обучение (группа)
прикольный бот у них
источник

NK

ID:183006445 in Глубинное обучение (группа)
#deepwarp
источник

NK

ID:183006445 in Глубинное обучение (группа)
#deepwarp
источник