Size: a a a

Natural Language Processing

2017 August 16

t2

tonko 22 in Natural Language Processing
чето я запутался
источник

t2

tonko 22 in Natural Language Processing
в заключении они громят модели, но в abstract написано обратное :
In  this  paper,  we  performsuch  an  extensive  evaluation,  on  a  widerange of lexical semantics tasks and acrossmany parameter settings.   The results,  toour  own  surprise,  show  that  the  buzz  isfully  justified,  as  the  context-predictingmodels obtain a thorough and resoundingvictory against their count-based counter-parts.
источник

MS

Mikhail Safonov in Natural Language Processing
в table 2 predict победил count
источник

A

Anton in Natural Language Processing
И glove, и word2vec — "предсказывают",  а не "считают", никакого противоречия нет (если я правильно понял ваш вопрос).
источник

m

memoryfull in Natural Language Processing
В заключении: «Instead, we found that the predict models are so good that, while the triumphalist overtones still sound excessive, there are very good reasons to switch to the new architecture».
источник

t2

tonko 22 in Natural Language Processing
Anton
И glove, и word2vec — "предсказывают",  а не "считают", никакого противоречия нет (если я правильно понял ваш вопрос).
я вообще на эту статью вышел через соответствующий вопрос на quora:
>They differ in that word2vec is a "predictive" model, whereas GloVe is a "count-based" model.
источник

A

Anton in Natural Language Processing
oh
источник

t2

tonko 22 in Natural Language Processing
оу, я просто невнимательно читал: они ожидали что count выйграет, но оказалось иначе
источник

A

Anton in Natural Language Processing
Ooops, да, я наврал
источник

t2

tonko 22 in Natural Language Processing
источник

MS

Mikhail Safonov in Natural Language Processing
Ееее, наши победили
источник

A

Anton in Natural Language Processing
oO
источник

m

memoryfull in Natural Language Processing
Обсуждаемая работа написана до создания GloVe (и, тем более, fastText), поэтому устарела.
источник

t2

tonko 22 in Natural Language Processing
memoryfull
Обсуждаемая работа написана до создания GloVe (и, тем более, fastText), поэтому устарела.
спасибо за замечание
источник

t2

tonko 22 in Natural Language Processing
источник

t2

tonko 22 in Natural Language Processing
тут глов победил, 2015
источник

S

Shine in Natural Language Processing
а кто fasttext в деле пробовал ? :)
источник

m

memoryfull in Natural Language Processing
У меня в задаче бинарной классификации побеждает GloVe с т.з. precision/recall из-за учета и q-grams.
источник

t2

tonko 22 in Natural Language Processing
о каком учете речь?
источник

m

memoryfull in Natural Language Processing
См. раздел 2.2 «N-gram features» в https://arxiv.org/pdf/1607.01759.pdf
источник