Size: a a a

Глубинное обучение (группа)

2016 November 15

YB

Yuri Baburov in Глубинное обучение (группа)
to goof — make a mistake
источник

AB

Arcady Balandin in Глубинное обучение (группа)
так вот и вопрос, что же он выдал в таком случае. то, что  "(I convinced her children) + are noisy" - это возможное грамматически предложение?
источник

YB

Yuri Baburov in Глубинное обучение (группа)
нет, аграмматическое
источник

YB

Yuri Baburov in Глубинное обучение (группа)
"On the other hand, it goofed on:" — парсер просто неправильно их разобрал
источник

YB

Yuri Baburov in Глубинное обучение (группа)
второго значения там нет, парсер просто делает ошибку на таких предложениях, пытаясь сначала собрать первую часть предложения и потом к этой части прилепить вторую часть. конечно же, получается хреново.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
автоматический переводчик тем более сделает эту же ошибку — можно сказать, что, по сути, парсеры считают, что пользователь дал предложение с ошибкой, и они исправили ошибку.
источник

AB

Arcady Balandin in Глубинное обучение (группа)
Yuri Baburov
нет, аграмматическое
с точки зрения tensorflow?
источник

YB

Yuri Baburov in Глубинное обучение (группа)
с т.з. syntaxnet нет такого понятия
источник

YB

Yuri Baburov in Глубинное обучение (группа)
там shift-reduce внутри
источник

YB

Yuri Baburov in Глубинное обучение (группа)
проход почти линейный (кажется, хранится несколько вариантов всё же) — в каждый момент нужно принимать решение между shift и reduce.
источник

AB

Arcady Balandin in Глубинное обучение (группа)
Yuri Baburov
второго значения там нет, парсер просто делает ошибку на таких предложениях, пытаясь сначала собрать первую часть предложения и потом к этой части прилепить вторую часть. конечно же, получается хреново.
то есть он не выбирает из двух возможных древ одно (и неверное), а просто генерирует одно (и неверное)?
источник

YB

Yuri Baburov in Глубинное обучение (группа)
ага
источник

AB

Arcady Balandin in Глубинное обучение (группа)
ну вот так и вернемся к CFG.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
но при генерации он же на все окружающие слова смотрит.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
в CFG/lexicalised CFG такого всё же нет, есть правила свёртки, а не вероятности правил.
источник

AB

Arcady Balandin in Глубинное обучение (группа)
может, у них как и у Link Grammar от OpenCog проблема с распознаванием и выявлением phantom nodes?
Полностью же предложение "I convinced her THAT children are noisy"
источник

YB

Yuri Baburov in Глубинное обучение (группа)
ну, garden path sentence это лишь способ проиллюстрировать проблему
источник

YB

Yuri Baburov in Глубинное обучение (группа)
двойные отрицания, выбор валентного слова — это та же проблема: нелинейность представления
источник

YB

Yuri Baburov in Глубинное обучение (группа)
нейросети умеют нелинейность, но ограниченно
источник

AB

Arcady Balandin in Глубинное обучение (группа)
тогда это практически та же болезнь, что и у phrase structure grammar. С английским еще ничего, а русский уже не подходит.
источник