Size: a a a

Глубинное обучение (группа)

2016 August 31

YB

Yuri Baburov in Глубинное обучение (группа)
что-то подробного описания не могу найти.
"I just won the Dogs vs. Cats Kaggle competition, using the deep learning library I wrote during my PhD: OverFeat http://cilvr.nyu.edu/doku.php?id=code:start

My system was pre-trained on ImageNet (ILSVRC12 classification dataset) and subsequently refined on the cats and dogs data. "
источник

YB

Yuri Baburov in Глубинное обучение (группа)
Kong Ning Kuan 孔宁宽
Юрий, что бы больше тебя не отвлекать, еще раз подвести итог, мне найти бы сначала что это просто картина (не сравнивать с гепардами и кошками), т.е. укоротить базу что ле, а потом уже реализовать поиск по своей базе изображений
как "укоротить базу" — убрать обученный верхний слой-классификатор, и вместо него поставить свой на 2 класса (картина-не картина)
источник

YB

Yuri Baburov in Глубинное обучение (группа)
(можно и один класс: "1-картина, 0-нет")
источник

YB

Yuri Baburov in Глубинное обучение (группа)
а вот если нужна локализация, то всё сложнее... без своей базы точно не обойтись.
в ответе должны быть точки с координатами. можно глянуть на facial keypoints recognition за идеей.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
ну или лучше даже просто поспрашивай у Simon Kozlov как он это делал — на closedcircles.com .
источник
2016 September 01

NK

ID:183006445 in Глубинное обучение (группа)
источник

NK

ID:183006445 in Глубинное обучение (группа)
интересно, можно ли как-то просто марковские цепи натравить на звук? :) чего будет?
источник

AB

Arcady Balandin in Глубинное обучение (группа)
источник

NK

ID:237676930 in Глубинное обучение (группа)
мне тут про какой-то эмбеддинг для загрузки букв в нейронный слой рассказывают. это бред или такое правда есть?
источник

NK

ID:237676930 in Глубинное обучение (группа)
источник

YB

Yuri Baburov in Глубинное обучение (группа)
ID:237676930
мне тут про какой-то эмбеддинг для загрузки букв в нейронный слой рассказывают. это бред или такое правда есть?
типа как в fasttext для n-грамм? если это буквы ascii (1-граммы), то особо смысла нет...
источник

NK

ID:237676930 in Глубинное обучение (группа)
Как часть нейронки просто держать его и обучать бекпропом. Потом последовательность букв представлять как последовательность векторов и работать с ними через тот же lstm
источник

NK

ID:183006445 in Глубинное обучение (группа)
а чем One-hot encoding плох?
источник

NK

ID:237676930 in Глубинное обучение (группа)
ничем, просто интересует какие ещё есть варианты
источник
2016 September 02

NK

ID:183006445 in Глубинное обучение (группа)
источник

NK

ID:183006445 in Глубинное обучение (группа)
источник

NK

ID:183006445 in Глубинное обучение (группа)
по сути там тот же onehot
источник
2016 September 03

NK

ID:183006445 in Глубинное обучение (группа)
http://www.news.cornell.edu/stories/2016/08/where-can-i-buy-chair-app-will-tell-you


Cornell University managed to release an app able to find common furniture online.

So if you see a sofa you like, you can just search for it online, to order the same in an instant.

Retailers' dream.
источник

NK

ID:183006445 in Глубинное обучение (группа)
ишь чего удумали - по фотографиям марку табуретки вычисляют
источник
2016 September 05

NK

ID:183006445 in Глубинное обучение (группа)
подскажите, какие есть способы ввода большого словаря на вход нейронной сети? чтобы первый слой поуже был
источник