Size: a a a

Глубинное обучение (группа)

2016 November 15

YB

Yuri Baburov in Глубинное обучение (группа)
скажем так, это проблема взвешивания. требуется много мозгов, чтобы правильно учесть все факторы и взвесить их. если мозгов мало, то взвешивание будет не всегда давать правильный результат.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
в случае LinkGrammar — правила взвешивания зашиваются в правила. я тоже так делал, когда свой парсер пытался писать.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
а какая разметка будет — грамматика составляющих или зависимостей, phrase grammar или link grammar — не так важно.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
важно, чтобы у модели было достаточно мозгов выбираться из тупиков в нелинейных ситуациях и правильно делать учёт факторов.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
и вот иерархия LSTM, которая в seq2seq моделях — она, с одной стороны, позволяет внутри последние N слов держать в памяти и их учитывать для принятия решений. но всё равно нелинейностей слишком много, чтобы в 100M параметров модели их уместить (и при этом оттюнить веса для принятия решений).
источник

AB

Arcady Balandin in Глубинное обучение (группа)
всё-таки раз несколько древ tensorflow в уме держит, то должен выпутываться. может кэша не хватает держать много вариантов?😄
источник

YB

Yuri Baburov in Глубинное обучение (группа)
а щас посмотрим, я не помню, несколько ли
источник

YB

Yuri Baburov in Глубинное обучение (группа)
но даже если несколько — если вес "I convinced her children" очень высокий, то модель стремится связать именно их друг с другом.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
в этом проблема взвешивания
источник

YB

Yuri Baburov in Глубинное обучение (группа)
и она забивает на маленький штрафной вес остальных связей.
источник

AB

Arcady Balandin in Глубинное обучение (группа)
просто странно. если она выдает такой парсинг, то где подобные древа в других предложениях? ведь в этом предложении просто грубо говоря strict typing нарушен.

Как "I convinced her children" может быть актантом глагола "to be noisy"???
источник

YB

Yuri Baburov in Глубинное обучение (группа)
ага, "beam size of 8", задаётся при построении модели (видимо beam factor нужен для rescoring).
источник

YB

Yuri Baburov in Глубинное обучение (группа)
Arcady Balandin
просто странно. если она выдает такой парсинг, то где подобные древа в других предложениях? ведь в этом предложении просто грубо говоря strict typing нарушен.

Как "I convinced her children" может быть актантом глагола "to be noisy"???
вопрос баланса штрафа за прикрепление. можно в онлайне посмотреть кстати как оно работает.
источник

YB

Yuri Baburov in Глубинное обучение (группа)
а может и нет
источник

YB

Yuri Baburov in Глубинное обучение (группа)
я завтра пример этого разбора для тебя сделаю (если у меня всё ещё syntaxnet работает).
источник

AB

Arcady Balandin in Глубинное обучение (группа)
ок
источник

YB

Yuri Baburov in Глубинное обучение (группа)
а, онлайн-демо было у spacy
источник

YB

Yuri Baburov in Глубинное обучение (группа)
"On the time-honoured benchmark for this task, Parsey McParseface achieves over 94% accuracy, at around 600 words per second. On the same task, spaCy achieves 92.4%, at around 15,000 words per second"
источник

AB

Arcady Balandin in Глубинное обучение (группа)
Yuri Baburov
а, онлайн-демо было у spacy
думаю, там вряд ли beam size можно менять :)
источник

YB

Yuri Baburov in Глубинное обучение (группа)
так у parsey тоже...
источник