Size: a a a

Natural Language Processing

2021 April 17

NS

Nikolay V. Shmyrev in Natural Language Processing
Нана вообще быть не должно, надо искать, почему расходится. Может данные плохие. Хорошо бы рассказать, что за сетка.
источник

👁👁

👁 👁 in Natural Language Processing
То что нана быть не должно это я знаю и насколько я понял это может быть связанно с vanishing/exploding gradients.

Данные должны быть в порядке т.к. на модельках с другими декодерами все неплохо обучается.

По поводу модельки - она сегментационная (я понимаю что это мимо NLP но в остальных чатах по тематике молчат)
Энкодер: EffnetB4
Декодер: https://smp.readthedocs.io/en/latest/models.html#manet
Лосс: JaccardBCE
источник
2021 April 18

V

Vic in Natural Language Processing
Да, подумаем, похоже на аспектный сентимент
источник

D

Dima in Natural Language Processing
Всем привет!
источник

D

Dima in Natural Language Processing
Насколько корректно набор стемов слова и его синоннимов назвать лексемой?
источник

D

Dima in Natural Language Processing
Нужно было прикрутить упрощенное распознавание ключевых слов во фразе, причем и из русского и из английского. Храню для этого наборы стемов вместе, например:

object WEEK : TIME("week", "недел")
источник

YB

Yuri Baburov in Natural Language Processing
лексема -- это набор всех словоформ слова.
набор синонимов иногда называют синсет (SynSet в WordNet), а иногда придумывают другие корни на Сем*. Скажем, назовите Сема, Семнон, Семан или даже СемНорма (SemNorm) , раз у вас нормализованные семантические представления получились.
источник

D

Dima in Natural Language Processing
Спасибо!
источник

IK

Igor Kucherevsky in Natural Language Processing
Ребята, подскажите пожалуйста хороший метод/модель для перефразирования (хочу применить для аугментации )
источник

N

Natalia in Natural Language Processing
можно сюда заглянуть, хотя не факт, что это прямо уже решение: http://paraphraser.ru
источник

DD

David Dale in Natural Language Processing
https://github.com/RussianNLP/russian_paraphrasers - тяжелые и крутые нейросетевые парафразеры от Сбера
https://github.com/avidale/dependency-paraphraser  - маленький дурацкий парафразер на основе словных эмбеддингов и синтаксического дерева; может быть полезен, если хочется проследить, куда при перефразировании переезжают определённые подстроки текста.
источник

SancheZz Мов in Natural Language Processing
О круто
источник

SancheZz Мов in Natural Language Processing
Спасибо
источник

N

Natalia in Natural Language Processing
ага, на данных того корпуса как раз
источник

IK

Igor Kucherevsky in Natural Language Processing
Дэвид, спасибо большое 👍
источник
2021 April 19

AM

Aleksandr Mester in Natural Language Processing
Ребят, кто работал с чат-ботами, как там строится логика построения ответов? Она основывается на каком-то обучении, или обучение только для реалистичных ответов, а сам логика прописывается каким-то деревом решений?
источник

AZ

Andrey Zakharov in Natural Language Processing
Зависит от цели бота, есть чит-чат боты , если goal-oriented
источник

AM

Aleksandr Mester in Natural Language Processing
Идеалогия итоговая - выдать релевантную информацию по запросу. То есть выход на релевантный ответ путем вспомогательных вопросов.
источник

DD

David Dale in Natural Language Processing
В таком случае, скорее всего, придется руками логику прописывать. Автоматически выучивать, какие уточняющие вопросы нужно задать, и как воспринимать ответы на них - сложно, захардкодить эту логику проще гораздо.
источник

AM

Aleksandr Mester in Natural Language Processing
Пытаюсь, понять, что тут остается от чат-бота (в смысле обучающегося чат бота) в таком случае. Кроме генератора реалистичного текста. Если сам запрос, допустим, как-то кодируется и обрабатывается, и принятие решение по хардкод логике.
источник