Size: a a a

Natural Language Processing

2019 December 27

V

Vlad in Natural Language Processing
Aragaer
в обучающей выборке было два варианта для одного интента, на выходе 100% один и тот же
Я делал тоже на seq2seq нечто похожее, только в стиле вопрос-ответ. Забросил как раз из-за того, что модель выучивает только один вариант ответа из нескольких
источник

V

Vlad in Natural Language Processing
Там была связка word2vec и attention seq2seq
источник

D(

David (ddale) Dale in Natural Language Processing
Aragaer
модель взял готовую из examples из keras
Попробуй ещё вот такой вариант.
Это не seq2seq, а как раз генерация текста по интенту плюс готовым слотам, которые можно туда подставлять. Ну и декодинг даже не beam search, а просто жадный пословный (но следит, чтобы несуществующие слоты не использовались).
Даже на игрушечных данных (ATIS) получается довольно разнообразно генерировать.
источник

A

Aragaer in Natural Language Processing
то есть у меня идея примерно такая - человек пишет текст. Модель на основе flair его анализирует и переводит в "язык для бота" - жсон с кучей данных. Дальше уже обычный код думает, как на это ответить, отдает обратно жсон и мне надо из этого сгенерить человеческий овтет
источник

V

Vlad in Natural Language Processing
Aragaer
то есть у меня идея примерно такая - человек пишет текст. Модель на основе flair его анализирует и переводит в "язык для бота" - жсон с кучей данных. Дальше уже обычный код думает, как на это ответить, отдает обратно жсон и мне надо из этого сгенерить человеческий овтет
Выглядит как самописная rasa core + nlu)
источник

D(

David (ddale) Dale in Natural Language Processing
Aragaer
то есть у меня идея примерно такая - человек пишет текст. Модель на основе flair его анализирует и переводит в "язык для бота" - жсон с кучей данных. Дальше уже обычный код думает, как на это ответить, отдает обратно жсон и мне надо из этого сгенерить человеческий овтет
Ага, идея очень здравая. Кажется, что если всё в порядке с обучающими данными, должно полететь)
источник

D(

David (ddale) Dale in Natural Language Processing
Vlad
Выглядит как самописная rasa core + nlu)
и nlg же как раз
источник

V

Vlad in Natural Language Processing
На базе rasa довольно хорошие чат-боты получаются
источник

A

Aragaer in Natural Language Processing
но размер модели
источник

A

Aragaer in Natural Language Processing
обучающие данные я готов на первых порах вообще сам руками сгенерить - для человеческого текста уже сделал это через RiveScript
источник

D(

David (ddale) Dale in Natural Language Processing
Vlad
На базе rasa довольно хорошие чат-боты получаются
А как ты русский язык к rasa лепишь?
источник

V

Vlad in Natural Language Processing
Нуу, физически - меньше 1-2мб, если данных не много. В оперативе - зависит от того, какие обработчики вы будете использовать. Spacy занимает примерно 3Гб оперативы, при этом там может быть довольно много разных моделей. Если nlu будет внешним сервисом, а для классификации интентов использовать какой-нибудь crf, то меньше 1гб
источник

A

Aragaer in Natural Language Processing
когда пробовал rasa, использовал английский
источник

A

Aragaer in Natural Language Processing
а сейчас - на flair - на русском нормально
источник

V

Vlad in Natural Language Processing
David (ddale) Dale
А как ты русский язык к rasa лепишь?
Лез в код nlu, добавил лемматизацию и ещё пару вещей, а сам русский nlu висит внешним отдельным сервисом

Работает вполне хорошо)
источник

A

Aragaer in Natural Language Processing
модель flair, которая вроде делает все, что мне надо для анализа, весит мегов 15
источник

A

Aragaer in Natural Language Processing
а, нет, там еще нет sentiment analysis
источник

V

Vlad in Natural Language Processing
Вы свою модель для русского делали или готовую нашли?
источник

V

Vlad in Natural Language Processing
Aragaer
а, нет, там еще нет sentiment analysis
Да, этого нету
источник

A

Aragaer in Natural Language Processing
ну в смысле я не прикрутил. Я взял flair, сделал language model, натренил ее на яндексовском датасете
источник