Size: a a a

Глубинное обучение (группа)

2017 February 28

R

Roman 🇲🇪 in Глубинное обучение (группа)
Я не встречал математика от мира сего :)
источник

R

Roman 🇲🇪 in Глубинное обучение (группа)
Alexander Lavrov
по этому я пишу во всех чатах, на форумах и вешаю вакансию на хх и подобные источники...
Есть контакт, попробуй сам
источник

NK

ID:318939205 in Глубинное обучение (группа)
в вакансии на хедхантере опечатка, скорее всего mtlib -> mllib
источник

AL

Alexander Lavrov in Глубинное обучение (группа)
ID:318939205
в вакансии на хедхантере опечатка, скорее всего mtlib -> mllib
Спасибо, поправил
источник

NK

ID:367196997 in Глубинное обучение (группа)
Друзья, собрал в одном месте 132 чата для программистов - @Chats_Developers. Пользуйтесь на здоровье.
источник

SP

Sergey Plotnikov in Глубинное обучение (группа)
Что за аншлаг такой сегодня?
источник

Е

Евгений in Глубинное обучение (группа)
Спамер Артурчик
источник

R

Roman 🇲🇪 in Глубинное обучение (группа)
ID:367196997
Друзья, собрал в одном месте 132 чата для программистов - @Chats_Developers. Пользуйтесь на здоровье.
Проспамили новый круг же
источник

Е

Евгений in Глубинное обучение (группа)
привел меян сюда
источник

Х

Хаим Умарович Йокогамский in Глубинное обучение (группа)
в чем суть этой беседы?
источник

SP

Sergey Plotnikov in Глубинное обучение (группа)
Все так хорошо было. Тихо, спокойно, по-существу и теперь вот на тебе...
источник
2017 March 01

NK

ID:183006445 in Глубинное обучение (группа)
привет всем новоприбывшим, подписывайтесь на канал с материалами:
https://t.me/ru_deep
источник

NK

ID:183006445 in Глубинное обучение (группа)
на хх.ру по нейросетям совсем вакансий почти нет, я смотрю
источник

NK

ID:183006445 in Глубинное обучение (группа)
люди добрые, по софтмакс активации нужен ликбез
источник

NK

ID:183006445 in Глубинное обучение (группа)
правильно ли я понимаю, что функция недифференцируемая, то есть сеть где она есть не обучить бакпропом?
источник

NK

ID:183006445 in Глубинное обучение (группа)
а только разными извращениями, типа кросэнтропии?
источник

NK

ID:183006445 in Глубинное обучение (группа)
и ещё вопросик - там размер входного и выходного слоя вообще может отличаться? или строго одинаков должен быть?
источник

NK

ID:183006445 in Глубинное обучение (группа)
если всё так как я понял, то зачем такая красота вообще нужна? она ж ничего не даёт, просто слой-пустышка
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
она дает нелинейность. Этого достаточно для аппроксимации любой функции. В скрытых слоях на самом деле не нужна, там relu очень хорошо (и быстро) работает, а вот на выходе, чтобы трактовать как вероятность очень хорошо идет.
источник

FZ

Fyodor Zhdanov in Глубинное обучение (группа)
ID:183006445
и ещё вопросик - там размер входного и выходного слоя вообще может отличаться? или строго одинаков должен быть?
любая размерность входа, любая выхода.
источник