Size: a a a

Natural Language Processing

2019 October 09

I

Igor in Natural Language Processing
Спасибо
источник

V

Vlad in Natural Language Processing
Igor
Спасибо
Chatterbot ещё говорят нормальный, но я тоже использую Rasa
источник

AZ

Andrey Zakharov in Natural Language Processing
Vlad
Chatterbot ещё говорят нормальный, но я тоже использую Rasa
кстати, вопрос из любопытства - вы используете расовские истории в продакшене? или только NLU часть ?
источник

V

Vlad in Natural Language Processing
Только NLU, и то я там некоторые вещи дописывал и по свои элементы в пайплайн добавляли
источник

V

Vlad in Natural Language Processing
Думаем пробовать и Core прикручивать, но пока с ним много проблем, и скорость работы не очень
источник

AZ

Andrey Zakharov in Natural Language Processing
Vlad
Только NLU, и то я там некоторые вещи дописывал и по свои элементы в пайплайн добавляли
да, это понятно, особенно если язык русский
источник

VS

VVv Sergeev in Natural Language Processing
Добрый вечер. Какая метрика лучше всего покажет качество модели классификации текста при большом количестве несбалансированных классов (примерно 150 )?
источник

CT

Cookie Thief in Natural Language Processing
F score
источник

VS

VVv Sergeev in Natural Language Processing
f1_macro или f1_micro?
источник

D(

David (ddale) Dale in Natural Language Processing
VVv Sergeev
f1_macro или f1_micro?
Я бы смотрел на f1_macro (чувствительна к мелким классам, но оттого шумная) и на обычную accuracy (более стабильная и хорошо отражает среднее по больнице).
источник

VS

VVv Sergeev in Natural Language Processing
David (ddale) Dale
Я бы смотрел на f1_macro (чувствительна к мелким классам, но оттого шумная) и на обычную accuracy (более стабильная и хорошо отражает среднее по больнице).
Спасибо!
источник

AM

Aleksandr Mester in Natural Language Processing
Привет, не подскажаете по DeepPavlov. Обучаю их берта, и при сборе метрики у них лосс почему-то только для тренировочного датасета собирается, для валидационного нет. Для обучения собирается конфиг и я пытаюсь понять, могу ли я где-то в этом конфиге указать, чтобы лосс тоже собирался?
источник

M

Mary in Natural Language Processing
Привет, а что обучаете? bert-ner, bert-classifier, bert-squad?
источник

AM

Aleksandr Mester in Natural Language Processing
classifier
источник

M

Mary in Natural Language Processing
Одним параметром в конфиге это не сделать. В deeppavlov конфиги устроены так, что при обучении модель видит target-ы и подсчитывает loss, не выходя из tf-графа, а при валидации не видит. А значит, лосс нужно заимлементить отдельно вне модели.

Можно это сделать, заимлементив один класс в директории deeppavlov/metrics (смотри пример с log_loss https://github.com/deepmipt/DeepPavlov/blob/master/deeppavlov/metrics/log_loss.py). Далее в конфиге в секцию "metrics" вставляешь новую метрику по образу и подобию предыдущих (ключи "name" и "inputs")
источник

AM

Aleksandr Mester in Natural Language Processing
спасибо!
источник

AK

Alex Klimov in Natural Language Processing
Кто-нибудь покрывал тестами форму в rasa'вском action-сервере? Может есть пример, как ее снаружи аккуратно вызывать репликой?
источник

V

V in Natural Language Processing
продолжаю поиски синтаксического парсера. копнул syntaxnet и udpipe. проблема в том, что они реализуют dependency tree parsing, в то время как я искал constituency parser. по всему гитхабу такой же предобученный парсер ищет какой-то парень, и, похоже, он его не нашёл, похоже что для русского языка такой предобученной модели нет в принципе...
источник

PL

Pavel Lebedev in Natural Language Processing
в русском много возможных перестановок и constituency проблемен в применении (если только делать отдельную логику для «распутывания» непроективных предложений, недавно вроде обсуждали тут, но я не знаю, насколько это эффективно работает), поэтому для русского используют dependency. примеров constituency для русского я даже не знаю.
источник

DK

Denis Kirjanov in Natural Language Processing
V
продолжаю поиски синтаксического парсера. копнул syntaxnet и udpipe. проблема в том, что они реализуют dependency tree parsing, в то время как я искал constituency parser. по всему гитхабу такой же предобученный парсер ищет какой-то парень, и, похоже, он его не нашёл, похоже что для русского языка такой предобученной модели нет в принципе...
Не ищите ))
источник