Size: a a a

Глубинное обучение (группа)

2016 November 07

YB

Yuri Baburov in Глубинное обучение (группа)
ID:183006445
привет народ, что там новенького?
где? вообще?
источник

NK

ID:183006445 in Глубинное обучение (группа)
ну да
источник

YB

Yuri Baburov in Глубинное обучение (группа)
по видео — прогресс по optical flow (2d -> depth), сеть улучшила качество и при этом компактнее аналогов в разы.
по звуку — -10% ошибок к прошлому году (работа от MS), хвалятся "достижением качества уровня среднего человека" (на двух датасетах с не сильно большим количеством шумов, люди вроде бы обычные, не профессионалы)
источник

YB

Yuri Baburov in Глубинное обучение (группа)
ещё по видео — super-resolution вроде бы теперь доступен "из коробки"
источник

YB

Yuri Baburov in Глубинное обучение (группа)
источник

YB

Yuri Baburov in Глубинное обучение (группа)
ещё сделали криптографический алгоритм через GAN, хреновенький, не 100% работает, но в принципе если добавить error checking, будет норм.
источник

NK

ID:183006445 in Глубинное обучение (группа)
источник

NK

ID:183006445 in Глубинное обучение (группа)
источник

YB

Yuri Baburov in Глубинное обучение (группа)
ID:183006445
такие картинки на туалетной бумаге наверное хорошо пойдут. какой в них смысл-то?
источник

NK

ID:183006445 in Глубинное обучение (группа)
просто обзор чего есть
источник

YB

Yuri Baburov in Глубинное обучение (группа)
источник
2016 November 15

YB

Yuri Baburov in Глубинное обучение (группа)
https://arxiv.org/abs/1611.04558 вот ещё прикольная новая работа.
"We propose a simple, elegant solution to use a single Neural Machine Translation (NMT) model to translate between multiple languages. Our solution requires no change in the model architecture from our base system but instead introduces an artificial token at the beginning of the input sentence to specify the required target language. The rest of the model, which includes encoder, decoder and attention, remains unchanged and is shared across all languages....On the WMT'14 benchmarks, a single multilingual model achieves comparable performance for English→French and surpasses state-of-the-art results for English→German. Similarly, a single multilingual model surpasses state-of-the-art results for French→English and German→English on WMT'14 and WMT'15 benchmarks respectively."
источник

AB

Arcady Balandin in Глубинное обучение (группа)
лучше б дали ссылки на репу с подробной инструкцией в каком формате и как ей скормить параллельные тексты, чтобы начала переводить.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
Arcady Balandin
лучше б дали ссылки на репу с подробной инструкцией в каком формате и как ей скормить параллельные тексты, чтобы начала переводить.
а оно им надо? они коммерческий продукт делают.
источник

AB

Arcady Balandin in Глубинное обучение (группа)
да вот и везде так.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
Arcady Balandin
да вот и везде так.
мне кажется, наоборот, надо радоваться, что научные работы делают. а то было бы гораздо хуже
источник

AB

Arcady Balandin in Глубинное обучение (группа)
да а пощупать то нельзя. наука не должна быть локальной, национальной... наука должна быть общей для всей планеты.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
пощупать можно — строй модель, бери WMT'14/15 и щупай
источник

YB

Yuri Baburov in Глубинное обучение (группа)
на самом деле, датасеты сейчас зачастую сложнее собрать и подготовить, чем саму модель повторить
источник

YB

Yuri Baburov in Глубинное обучение (группа)
а в этот раз датасеты вполне можно скачать: http://www.statmt.org/wmt14/translation-task.html
источник