Size: a a a

Глубинное обучение (группа)

2016 November 15

YB

Yuri Baburov in Глубинное обучение (группа)
ну а тем кто в теме, вполне можно и модель такую повторить. так-то примерно понятно, что за модель, она там нарисована даже
источник

YB

Yuri Baburov in Глубинное обучение (группа)
источник

AB

Arcady Balandin in Глубинное обучение (группа)
хм, чо то сложно как-то, не для нубов. Вот Google выпустил Tensorflow  и как-то сразу весь github заполнился его применениями.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
ну вот представь они свой код на 8 GPU выложат — и кому он нужен?
источник

AB

Arcady Balandin in Глубинное обучение (группа)
а кто нить тут пробовал их наработки?
источник

YB

Yuri Baburov in Глубинное обучение (группа)
у них тоже модель наверняка на tensorflow, но ты явно хочешь, чтобы они для тебя бесплатно сделали опенсорсный продукт
источник

YB

Yuri Baburov in Глубинное обучение (группа)
я пробовал их NLP парсер
источник

YB

Yuri Baburov in Глубинное обучение (группа)
источник

YB

Yuri Baburov in Глубинное обучение (группа)
для русского модель слабая, т.к. датасет очень маленький (кажется всего порядка 20к предложений), практического смысла использовать нет. да и даже для английского — ну ошибаемость на слово порядка 7%, если пытаться из такого какой-то логический вывод сделать — выведешь противоречие (а из него всё что угодно).
источник

YB

Yuri Baburov in Глубинное обучение (группа)
т.е. с одной стороны — да, наилучшее решение из возможных на сегодняшний день, State of the art. С другой стороны, нифига не применимо на практике как компонент намного более сложного продукта.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
и это ошибаемость синтаксического разбора порядка 7%, а ещё нужно семантическую омонимию снять, где ещё 30% ошибок на слово запросто будет.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
а в machine translation всё это сразу, конечно же: и синтаксические ошибки, и семантические, и логико-прагматические.
источник

AB

Arcady Balandin in Глубинное обучение (группа)
источник

AB

Arcady Balandin in Глубинное обучение (группа)
работает нормально, только итераций мног онадо
источник

YB

Yuri Baburov in Глубинное обучение (группа)
ну это развлекуха, там понятия "качество работы" нет вообще
источник

AB

Arcady Balandin in Глубинное обучение (группа)
хотя как всегда всё зависит от качества и объема параллельных текстов
источник

YB

Yuri Baburov in Глубинное обучение (группа)
вот если бы можно было бы "направлять" генерированный текст, задавая ему тему...
источник

YB

Yuri Baburov in Глубинное обучение (группа)
тогда можно было бы качество оценить хотя бы
источник

YB

Yuri Baburov in Глубинное обучение (группа)
а так — чем "человечней" модель выдаёт текст, тем меньше разнообразие текстов, которые она может генерировать (и тем больше они состоят из текстов автора)
источник

YB

Yuri Baburov in Глубинное обучение (группа)
Yuri Baburov
вот если бы можно было бы "направлять" генерированный текст, задавая ему тему...
собственно, алгоритм должно быть несложно модифицировать таким образом
источник