Size: a a a

Natural Language Processing

2021 April 26

VM

Victor Maslov in Natural Language Processing
есть канал ##nlp на Freenode
источник

N

Natalia in Natural Language Processing
вообще про UD сам Нивре делал доклад аж в Яндексе:
https://events.yandex.ru/events/science-seminars/20-apr-2016?openTalkVideo=919-1
источник

N

Natalia in Natural Language Processing
это раз
источник

N

Natalia in Natural Language Processing
Ляшевская тоже рассказывала, это два: https://ling.hse.ru/news/197443947.html
источник

N

Natalia in Natural Language Processing
ну и три — слайдики отсюда:
http://universaldependencies.org/eacl17tutorial/
источник

YS

Yaroslav Stolbunov in Natural Language Processing
Ещё вопрос, как добавить свои паттерны в NewsEmbedding() для natasha
источник
2021 April 27

ПЧ

Призрачный Человек... in Natural Language Processing
Здравствуйте. Распознаю текст с документов для дальнейшего анализа, юзаю Тику. После распознавание есть много ошибок - где то буквы в слове не хватает, где то одно слово разбито на два (шам пунь), где то вообще хрень какая то. Есть какие то библиотеки в питоне, которые могут помочь исправить хотя бы часть этих ошибок? Поправить орфографию, там, где есть опечатки и объединить два слова в одно. Стоит ли этим вообще заниматься? Увеличит ли это точность конечной модели (в моём случаи это классификация текстов)
источник

AE

Anton Eryomin in Natural Language Processing
Посмотрите вначале на частоту ошибочных слов, может быть у вас они не единичны, а есть какое-то "спец" слово и для таких придётся добавлять костыли. В целом же, координально ситуация в контексте классификации у вас не поменяется, однако зависит от длины ваших текстов (может быть вы по 1- 2 предложениям строите классификатор).
источник

A

Anton in Natural Language Processing
Подскажите, пожалуйста, есть ли fact checker для русского языка?
источник

ПЧ

Призрачный Человек... in Natural Language Processing
Так а как я могу оценить частоты ошибочных слов?
источник

AE

Anton Eryomin in Natural Language Processing
Ошибочные слова, как правило будут как раз таки в хвосте вашего списка встречаемости, тут только нужно смотреть прямо на ваш график
источник

ПЧ

Призрачный Человек... in Natural Language Processing
Всё равно не понял, чем мне это поможет.
источник

AE

Anton Eryomin in Natural Language Processing
тем что может получится так, что какое-то слово, хоть это и вы могли считать ошибкой, однако оно часто встречается. Волшебной библиотеки я не знаю, все равно придется глазами смотреть на графикии
источник

ПЧ

Призрачный Человек... in Natural Language Processing
Ну тогда просто можно исправлять только те слова, которые встречаются 1-3 раза максимума
источник

IS

I Sh in Natural Language Processing
SPARQL к WikiData 😁
источник

A

Anton in Natural Language Processing
Кхм, почему бы и нет)
источник

VF

Vadim Fomin in Natural Language Processing
источник

B

Banof in Natural Language Processing
🔫 @evilcoder73 кикнут — вернуть этого пользователя можно только разбаном в настройках чата.

Проголосовавшие за кик:
@wadimiusz, @yolkanazarova, @drum_forrest_drum, @Orzhan, @tzekunosyosha, @FutorioFranklin
При поддержке Золота Бородача
источник

М

Марк in Natural Language Processing
Привет всем!
Подскажите правильно ли ставлю задачу.

В резюме кандидата есть текстовый блок с опытом работы в разных компаниях.
Я с помощью NER нахожу "должность", "опыт работы" и "используемые технологии".

Можно ли ставить задачу матчинга сущности "должность" с сущностями "опыт работы" и "технологии" в рамках одного места работы как задачу разрешения кореференции?
источник

➔m

➔◾ maria myznikova... in Natural Language Processing
Всем привет! Подскажите, как правильно подходить к задаче классификации текстов, если кроме самих текстов хочется использовать дополнительные фичи? Т.е., если у меня есть дополнительные категориальные и числовые признаки для каждого текста.

Имею в виду, архитектурно. Обучить отдельно текстовые эмбеддинги, условно, бертом, отдельно сделать эмбеддинги фич, дальше — эээ склеить эти вектора и засунуть в какую-то еще модель?

Спасибо большое.
источник