Size: a a a

Глубинное обучение (группа)

2016 September 05

YB

Yuri Baburov in Глубинное обучение (группа)
дальше начала-то ты прочитал? как раз one-hot encoding и сравнивается с word vectors
источник

YB

Yuri Baburov in Глубинное обучение (группа)
https://adriancolyer.files.wordpress.com/2016/04/word2vec-distributed-representation.png?w=600 для кого картинка? разве там единичка и нолики?
источник

NK

ID:183006445 in Глубинное обучение (группа)
блин, точно, не дочитал
источник

NK

ID:183006445 in Глубинное обучение (группа)
но всё равно странно
источник

NK

ID:183006445 in Глубинное обучение (группа)
а чем тогда это от обычной бинарной записи отличается
источник

YB

Yuri Baburov in Глубинное обучение (группа)
ок, вот тебе задача: закодировать 1М слов 100-мерными векторами так, чтобы
а) разным словам соответствовали разные вектора
б) рядом были слова, близкие друг к другу по смыслу
источник

YB

Yuri Baburov in Глубинное обучение (группа)
бинарная запись решает (а) но не (б)
источник

NK

ID:183006445 in Глубинное обучение (группа)
да, это понятно
источник

NK

ID:183006445 in Глубинное обучение (группа)
а если у меня принципиально никакого "близкого смысла" нет?
источник

YB

Yuri Baburov in Глубинное обучение (группа)
а свойство (б) хорошо тем, что линейно отделять разные свойства тебе будет потом проще.
например, свойство "часть речи".
источник

YB

Yuri Baburov in Глубинное обучение (группа)
или "положительность" значения слова
источник

YB

Yuri Baburov in Глубинное обучение (группа)
если "близкого смысла", синтаксических или семантических свойств не надо, то можно учить embedding и ещё более точно решать твою задачу
источник

YB

Yuri Baburov in Глубинное обучение (группа)
просто сколько тебе связей нейронов нужно будет после 1го слоя, чтобы твои полезные свойства выучить?
из бинарного разбиения на 1 млн элементов и 1000 свойств — те же 1 млрд, не?
источник

YB

Yuri Baburov in Глубинное обучение (группа)
а вот если embedding какие-то свойства сгруппирует, то меньше
источник

YB

Yuri Baburov in Глубинное обучение (группа)
по сути, embedding — это и есть 1-hot представление + преобразование, только развёрнутое в другую сторону и хранящееся не в параметрах нейросети, а в отдельном месте.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
именно потому, что нейросеть оно сильно утяжелит.
источник

NK

ID:183006445 in Глубинное обучение (группа)
так на пальцах примерно понятно о чём речь, но хочется конкретики, может где-то это на примерах объясняется?
источник

YB

Yuri Baburov in Глубинное обучение (группа)
в паре научных работ неплохо объясняется
источник

NK

ID:183006445 in Глубинное обучение (группа)
дай ссылку
источник

YB

Yuri Baburov in Глубинное обучение (группа)
так найти сначала надо, ищу
источник