Size: a a a

ML Boot Camp Official

2020 April 06

АМ

Александр Мов in ML Boot Camp Official
Дмитрий Симаков
А кто-то тестировал активации кроме софтмакса для мультиклассовой классификации? Были какие-нибудь работы по другим способам нормировки?
Multilabel + threshes
источник

АМ

Александр Мов in ML Boot Camp Official
Тобишь сигмоида
источник

АМ

Александр Мов in ML Boot Camp Official
Дмитрий Симаков
А кто-то тестировал активации кроме софтмакса для мультиклассовой классификации? Были какие-нибудь работы по другим способам нормировки?
Скину тебе в лс статью
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Это в контексте ARC. Там входящие цвета кодируются OHE. И не может быть больше 1 цвета у пикселя. Но мне по ряду причин софтмакс доставляет неудобства.
Тут нужна нормировка, чтобы учитывался 1 цвет у пикселя.
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Можно и не OHE кодировать, конечно. Но это другой разговор.
источник

ИБ

Иван Брагин in ML Boot Camp Official
Можно softmax убрать и просто лосс по softmax считать, а на выходе нейронки оставить logist.
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Иван Брагин
Можно softmax убрать и просто лосс по softmax считать, а на выходе нейронки оставить logist.
https://www.kaggle.com/teddykoker/training-cellular-automata-part-ii-learning-tasks

Вот глянь контекст. У меня примерно для тех же нужд. Хочется, чтобы инпут и аутпут модели находился в одинаковых диапазонах. И чтобы можно было инпут и аутпут складывать, например. После чего опять использовать нормировку.
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Можно, конечно инпут с 0 / 1 перевести в -10, 10, чтобы софтмакс на них возвращал 0, 1. Но это работает не очень. Вот думаю, какие еще есть варианты.
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Аналагичная проблема в pix2pix ганах возникает, когда мы из бинарной маски предиктим бинарную маску. И использование tanh не подходит. Я там применял softmax и его результат растягивал в нужный диапазон (-1, 1). Но кажется, должны быть способы лучше.
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in ML Boot Camp Official
Дмитрий Симаков
Можно, конечно инпут с 0 / 1 перевести в -10, 10, чтобы софтмакс на них возвращал 0, 1. Но это работает не очень. Вот думаю, какие еще есть варианты.
Не понял, у тебя инпут 0-1 и аутпут 0-1 (после софтмакса)
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in ML Boot Camp Official
В чем проблема
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Evgeniy Zheltonozhskiy🇮🇱
В чем проблема
Предположим, я хочу сделать операцию identity. Тогда подаем 0 / 1. На выходе 0 / 1.  После софтмакса  0.6 и 0.05. Или хочется уметь к изображению добавлять результат модели. Выйдет 0 / 1 + -10 / 10.
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in ML Boot Camp Official
Дмитрий Симаков
Предположим, я хочу сделать операцию identity. Тогда подаем 0 / 1. На выходе 0 / 1.  После софтмакса  0.6 и 0.05. Или хочется уметь к изображению добавлять результат модели. Выйдет 0 / 1 + -10 / 10.
Ну ты независимо от трансформаций мне кажется не можешь делать часть операций с аутпутом который надо скейлить (сетка) а часть не надо (identity)
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Если нормировать на сумму, то проблема с отрицательными значениями.
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Evgeniy Zheltonozhskiy🇮🇱
Ну ты независимо от трансформаций мне кажется не можешь делать часть операций с аутпутом который надо скейлить (сетка) а часть не надо (identity)
Может скейл действительно единственный вариант. Лан, еще попробую всякое.
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in ML Boot Camp Official
Дмитрий Симаков
Может скейл действительно единственный вариант. Лан, еще попробую всякое.
Ну ты можешь просто не софтмаксить такие трансформации не?
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Evgeniy Zheltonozhskiy🇮🇱
Ну ты можешь просто не софтмаксить такие трансформации не?
С суммой не выйдет. Если я хочу сравнивать с истинным значением в духе адверсериал лосса на каждом шаге. Вообще, все эти проблемы возникают из-за способа представления данных.
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in ML Boot Camp Official
Дмитрий Симаков
С суммой не выйдет. Если я хочу сравнивать с истинным значением в духе адверсериал лосса на каждом шаге. Вообще, все эти проблемы возникают из-за способа представления данных.
Ну дело в том что функции распределения нельзя складывать
источник

ДС

Дмитрий Симаков in ML Boot Camp Official
Evgeniy Zheltonozhskiy🇮🇱
Ну дело в том что функции распределения нельзя складывать
Вот у меня была картинка
1 1
1 1

Сетка предсказала добавку
0 1
1 2

На выходе
1 2
2 3

Такой сценарий получится провернуть, если числа закодированы в OHE? Если не требовать, чтобы добавку можно было представить в числах. То (input + output).softmax() должен работать.
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in ML Boot Camp Official
Дмитрий Симаков
Вот у меня была картинка
1 1
1 1

Сетка предсказала добавку
0 1
1 2

На выходе
1 2
2 3

Такой сценарий получится провернуть, если числа закодированы в OHE? Если не требовать, чтобы добавку можно было представить в числах. То (input + output).softmax() должен работать.
Ну ОНЕ как раз предназначен чтобы аддитивность убрать
источник