Size: a a a

Глубинное обучение (группа)

2017 August 20

EM

Evgenii Makarov in Глубинное обучение (группа)
ID:306125730
керас. сейчас все фреймворки плохие, все надо дошаманивать. нет такого, чтобы кнопочку нажал и работало.
Каффе не надо. Кладёшь обученную модель в папочку и работаешь
источник
2017 August 26

NK

ID:306125730 in Глубинное обучение (группа)
Evgenii Makarov
Каффе не надо. Кладёшь обученную модель в папочку и работаешь
под винду кто недавно кафе собирал, с какого гитхаба брать лучше?
источник
2017 August 27

IU

Ivan U in Глубинное обучение (группа)
Я с официального собирал под vs15
источник

NK

ID:306125730 in Глубинное обучение (группа)
Ivan U
Я с официального собирал под vs15
источник

IU

Ivan U in Глубинное обучение (группа)
Я сейчас не за компьютером, не могу точно сказать. Точно помню что официальная инструкция.
источник

NK

ID:306125730 in Глубинное обучение (группа)
наверное это тогда
источник

NK

ID:306125730 in Глубинное обучение (группа)
кстати, кто читал на хабре туториал вчерашний? офигенная вещь, где бы ещё такого найти?
источник

NK

ID:306125730 in Глубинное обучение (группа)
вот это
источник

NK

ID:306125730 in Глубинное обучение (группа)
источник

NK

ID:306125730 in Глубинное обучение (группа)
я как то смотрел на хероку, но мне было дико, что я там ни одного байта не могу сохранить в самой хероке, поэтому забросил. а оказывается не всё так страшно
источник
2017 August 31

V

Vera in Глубинное обучение (группа)
Всем привет. Кто-нибудь разбирал эту статью: Hierarchical Multi-scale Attention Networks for Action Recognition (August 2017, Shiyang Yan, https://www.researchgate.net/publication/319311903_Hierarchical_Multi-scale_Attention_Networks_for_Action_Recognition)?
источник

V

Vera in Глубинное обучение (группа)
Что думаете про HTM?
источник

ВК

Виталий Канев in Глубинное обучение (группа)
HyperText Markup =)
источник

YB

Yuri Baburov in Глубинное обучение (группа)
Vera
Что думаете про HTM?
а какой именно HTM?
источник

YB

Yuri Baburov in Глубинное обучение (группа)
почитал, крайне сложная реализация, а существенных преимуществ в бенчмарках по сравнению с CHAM не видно.
источник
2017 September 04

YT

Yuriy Turchin in Глубинное обучение (группа)
Всем привет. Задался таким вопросом. Каким образом нейросетки толкают в продакшн? Я имею в виду вот что. На обучении тратится довольно много ресурсов. Требуется видеокарта, время и т.д. Но ведь даже для запуска нейросетки для обычного predict-a уходит также немало мощностей, ведь сетку нужно хранить в оперативной памяти (поправьте, если я ошибаюсь) и еще прогнать по ней данные. Тогда как работают допустим системы слежения на основе сеток, всякие Prisma и  другие продукты? Они же установлены на слабых устройствах. Неужели все данные направляют в облако, на мощные сервера и там обрабатываются?
источник

NK

ID:306125730 in Глубинное обучение (группа)
Yuriy Turchin
Всем привет. Задался таким вопросом. Каким образом нейросетки толкают в продакшн? Я имею в виду вот что. На обучении тратится довольно много ресурсов. Требуется видеокарта, время и т.д. Но ведь даже для запуска нейросетки для обычного predict-a уходит также немало мощностей, ведь сетку нужно хранить в оперативной памяти (поправьте, если я ошибаюсь) и еще прогнать по ней данные. Тогда как работают допустим системы слежения на основе сеток, всякие Prisma и  другие продукты? Они же установлены на слабых устройствах. Неужели все данные направляют в облако, на мощные сервера и там обрабатываются?
1) ресурсы тратятся на подбор весов, чтобы 100500 раз переколдовать веса, а один проход всегда быстрый. 2) не требуется видеокарта, просто без неё будет медленнее. 3) сеть можно хранить в памяти всю, можно один слой, можно не хранить, это от реализации зависит. 4) призма первой версии была облачной, потом сделали локальную.
источник

ВS

Вова, Usopp Shir in Глубинное обучение (группа)
именно, в итоге нейронная сеть - это огромный многочлен, который может считаться достаточно быстро и без видеокарт. Тем более, немалое число связей и нейронов, как правило, можно прорядить (prune), получая бОльшую скорость применения в обмен на увеличение погшености
источник

YT

Yuriy Turchin in Глубинное обучение (группа)
Просто я это все примерно так и понимал. Но сейчас попытался запустить реализацию faster-rcnn на caffe на CPU и получил ошибку того, что не хватает оперативной памяти.
источник

YT

Yuriy Turchin in Глубинное обучение (группа)
Сетка vgg16
источник