Size: a a a

Natural Language Processing

2020 February 06

V

Viktor in Natural Language Processing
а кто-то трогал https://github.com/makcedward/nlpaug ?
интересно как оно в деле? а то выглядит заманчиво
источник

PM

Pavel Makhnev in Natural Language Processing
Господа и дамы, может кто-то подсказать как понимать теги в TreeTagger ?
источник

PM

Pavel Makhnev in Natural Language Processing
каждая буква означает какое-то конкретное значение?
источник

PM

Pavel Makhnev in Natural Language Processing
В общем, если
Category=Noun, Type = common, Gender = masculine, Number = singular, Case = accusative, Animate = no

corresponds to the MSD tag Ncmsan.

то что значит
Как  P-----r  как
или
машина  Ncfsnn  машина

можете подсказать? Или хотя бы где найти список значений тегов
источник

PM

Pavel Makhnev in Natural Language Processing
или может подскажете какой-то более удобный путь для определения всяких морфологий и тд?
источник

AK

Anton Kazennikov in Natural Language Processing
это похоже на формат морф. признаков из freeling: https://freeling-user-manual.readthedocs.io/en/latest/tagsets/tagset-ru/
источник

PM

Pavel Makhnev in Natural Language Processing
да, похоже ) но я нашел оригинальную - если что тут - http://corpus.leeds.ac.uk/mocky/msd.N-ru.html
источник

D

Denis in Natural Language Processing
Open Data Science: Открытый курс «Deep Learning in NLP» от создателей DeepPavlov на базе курса cs224n https://habr.com/ru/post/487172/?utm_source=habrahabr&utm_medium=rss&utm_campaign=corporate_blog
источник

D

Denis in Natural Language Processing
кто-нибудь в курсе: личное присутствие обязательно?
источник

V

Vlad in Natural Language Processing
А есть ли записи лекций/будут ли? Таким как я, кто не в РФ живёт, очень хотелось бы посмотреть)
источник

D

Denis in Natural Language Processing
+
источник

A

Aragaer in Natural Language Processing
там написано, что лекций нет
источник

A

Aragaer in Natural Language Processing
надо самостоятельно смотреть видео, а на семинарах только обсуждать с преподавателем, чего ты там не понял
источник

В

Владислав in Natural Language Processing
Здравствуйте. Есть ли способы подавать в sklearn tfidf не массив текстов, а массив из массивов предложений? Конечная цель - чтобы в н-граммы не попадали слова подряд из разных предложений
источник

m

mel kaye in Natural Language Processing
в тфидф же частотную матрицу подают
источник

D(

David (ddale) Dale in Natural Language Processing
Владислав
Здравствуйте. Есть ли способы подавать в sklearn tfidf не массив текстов, а массив из массивов предложений? Конечная цель - чтобы в н-граммы не попадали слова подряд из разных предложений
В качестве хака можно отделить предложения друг от друга (n-1) специальными токенами, тогда в n-грамы токены из двух соседних предложений попасть не смогут. Это можно закодить как отдельный препроцессор текста.
Ну или можно сделать только 1 специальный токен, и потом словарь tfidf'а пофильтровать, выкинув все n-граммы, в которых этот токен не в начале/конце.
источник

В

Владислав in Natural Language Processing
David (ddale) Dale
В качестве хака можно отделить предложения друг от друга (n-1) специальными токенами, тогда в n-грамы токены из двух соседних предложений попасть не смогут. Это можно закодить как отдельный препроцессор текста.
Ну или можно сделать только 1 специальный токен, и потом словарь tfidf'а пофильтровать, выкинув все n-граммы, в которых этот токен не в начале/конце.
Спасибо
источник

M

Mark in Natural Language Processing
Привет. Никто не знает, есть ли какие-нибудь статьи по эмбедингу предложений где используют Open Information Extraction для представления предложения в виде логического трипла?
источник
2020 February 11

AK

Anton K. in Natural Language Processing
Добрый день! как сейчас лучше всего делать suggestions для сайта?
источник

КЧ

Квадрат Чёрный in Natural Language Processing
Anton K.
Добрый день! как сейчас лучше всего делать suggestions для сайта?
Autosuggestion для дополнения введенной подстроки?

Trie + частотная статистика запросов (если есть, а иначе близость по левенштейну какому-нибудь)
источник