Size: a a a

Natural Language Processing

2019 December 07

n

noname in Natural Language Processing
н грамму надо получить из связи слов между собой
источник

n

noname in Natural Language Processing
или я что-то непонимаю
источник

n

noname in Natural Language Processing
я новичок вообще если что, чтогу ошибаться
источник

Miss Очепятка in Natural Language Processing
Я тоже, новичок.
источник

V

Vlad in Natural Language Processing
noname
тогда распишу задачу, я хочу идентифицировать текст об одном и том же событии. думал взять n-грамму, потому что она более четко отражает смысл текста
Это классификация текста/темы/намерений)
источник

V

Vlad in Natural Language Processing
Решения этой задачи легко гуглятся, их много разных
источник

n

noname in Natural Language Processing
ну вот я и нагуглил что n-гаммой получается более точно, но как n-грамму сделать ненашел
источник

n

noname in Natural Language Processing
хотя про n-грамму на хабре прочитал, так себе источник конечно😂
источник

n

noname in Natural Language Processing
ну там вроде бы логично все расписано, что биграммы более четко отражают суть дела, например словосочетание "не писать" просто при использовании лемматизации будет разделено на два "не" и "писать", при использовании биграммы в таблице будет имаенно "не писать" и "не" не затеряется в мешке слов
источник

Y

Yurii in Natural Language Processing
желтый снег не жрать
источник

Y

Yurii in Natural Language Processing
"не писать" или "не писать"? вот в чем вопрос.
источник

Miss Очепятка in Natural Language Processing
источник

Miss Очепятка in Natural Language Processing
n-граммы это просто группы букв к примеру по 3 буквы
источник

Miss Очепятка in Natural Language Processing
'не_''пис''ать'
источник

CT

Cookie Thief in Natural Language Processing
Это могут быть и слова, не только буквы
источник

m

mel kaye in Natural Language Processing
noname
ну вот я и нагуглил что n-гаммой получается более точно, но как n-грамму сделать ненашел
for i, j in zip(tokens[:-1], tokens[1:]):
  ...
источник

m

mel kaye in Natural Language Processing
Биграма например
источник

SP

Sebastian Pereira in Natural Language Processing
Коллеги, какая лингвистическая модель в итоге подходит для построения эмбеддингов нескольких предложений на русском языке?
источник

SP

Sebastian Pereira in Natural Language Processing
Вроде того, что демонстрируется во flair?
источник

YB

Yuri Baburov in Natural Language Processing
Sebastian Pereira
Коллеги, какая лингвистическая модель в итоге подходит для построения эмбеддингов нескольких предложений на русском языке?
Да любая, кому-то нужно косинусное расстояние -- тем подойдёт w2v, кому-то нужна точность -- более глубокие нейросети, кому-то нормированная близость биграмм уже норм, кто-то нормированную точность только ключевых слов возьмёт
источник