Size: a a a

Глубинное обучение (группа)

2017 May 30

KS

Konstantin Sozykin in Глубинное обучение (группа)
Могу ли я их выучить по ходу обучения сетки?
источник

KS

Konstantin Sozykin in Глубинное обучение (группа)
Хотя, может быть я несу ерунду, поскольку это похоже на регуляризацию, а ее не учат
источник

A

Andrey in Глубинное обучение (группа)
Ту регуляризацию, которая происходит при батч-нормализации - учат:)
источник

A

Andrey in Глубинное обучение (группа)
Konstantin Sozykin
У которых есть коэффициенты
Их значения наверное поиском по сетке только можно подобрать
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in Глубинное обучение (группа)
Konstantin Sozykin
Могу ли я их выучить по ходу обучения сетки?
а какую ты ей цель поставишь?
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in Глубинное обучение (группа)
Konstantin Sozykin
Могу ли я их выучить по ходу обучения сетки?
можно искать грид/рэндом search или чем-то по умнее
источник

V

Val in Глубинное обучение (группа)
Konstantin Sozykin
Могу ли я их выучить по ходу обучения сетки?
Взять градиент по ним, казалось бы, ничего не мешает. Вопрос только в том, насколько это осмысленно
источник

A

Andrey in Глубинное обучение (группа)
Градиент будет равен самой величине штрафа, а то, что штраф нужно уменьшать в ходе обучения, мы и так знаем
источник

A

Andrey in Глубинное обучение (группа)
Кроме того, сразу возникает тривиальное решение - все коэффициенты при слагаемых в штрафе занулить и получить loss = 0
источник

KS

Konstantin Sozykin in Глубинное обучение (группа)
Evgeniy Zheltonozhskiy🇮🇱
а какую ты ей цель поставишь?
Multi-task, multi-output regression
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
смешивать нормированные лосы с весами максимизирующими конечный лосс (sum w_i = 1, w_i>=0)) - самое очевидное, которое не предусматривает тривиального решения.
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
можно и обучать эти веса (минимизировать -final_loss), но смысла в этом не много
источник

IU

Ivan U in Глубинное обучение (группа)
Подскажите по caffe. Сделал fine tuning для модели на своём наборе, accuracy 70%, однако при классификации тестового набора он для каждого класса даёт 0.3.
источник

IU

Ivan U in Глубинное обучение (группа)
Причем для каждого файла одно и тоже.
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in Глубинное обучение (группа)
Кто нибудь мерял производительность тензорфлоу с шлангом в качестве компилятора куды?
источник

KS

Konstantin Sozykin in Глубинное обучение (группа)
Evgeniy Zheltonozhskiy🇮🇱
Кто нибудь мерял производительность тензорфлоу с шлангом в качестве компилятора куды?
шланг?
источник

KS

Konstantin Sozykin in Глубинное обучение (группа)
Ivan U
Подскажите по caffe. Сделал fine tuning для модели на своём наборе, accuracy 70%, однако при классификации тестового набора он для каждого класса даёт 0.3.
плохо затюнил
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in Глубинное обучение (группа)
clang
источник

IU

Ivan U in Глубинное обучение (группа)
Но для 70 не должно постоянно 0.3 выдавать, для трёх классов это все равно что расставить всем одинаково без всякой работы
источник

KS

Konstantin Sozykin in Глубинное обучение (группа)
Ivan U
Но для 70 не должно постоянно 0.3 выдавать, для трёх классов это все равно что расставить всем одинаково без всякой работы
Вот именно. ты ничего не выучил
источник