скажем так, это проблема взвешивания. требуется много мозгов, чтобы правильно учесть все факторы и взвесить их. если мозгов мало, то взвешивание будет не всегда давать правильный результат.
и вот иерархия LSTM, которая в seq2seq моделях — она, с одной стороны, позволяет внутри последние N слов держать в памяти и их учитывать для принятия решений. но всё равно нелинейностей слишком много, чтобы в 100M параметров модели их уместить (и при этом оттюнить веса для принятия решений).
просто странно. если она выдает такой парсинг, то где подобные древа в других предложениях? ведь в этом предложении просто грубо говоря strict typing нарушен.
Как "I convinced her children" может быть актантом глагола "to be noisy"???
просто странно. если она выдает такой парсинг, то где подобные древа в других предложениях? ведь в этом предложении просто грубо говоря strict typing нарушен.
Как "I convinced her children" может быть актантом глагола "to be noisy"???
вопрос баланса штрафа за прикрепление. можно в онлайне посмотреть кстати как оно работает.
"On the time-honoured benchmark for this task, Parsey McParseface achieves over 94% accuracy, at around 600 words per second. On the same task, spaCy achieves 92.4%, at around 15,000 words per second"