Size: a a a

Natural Language Processing

2019 December 29

V

Vlad in Natural Language Processing
Den
ну, что уж, надо было раньше реагировать когда спрашивал в первый раз
Вы вроде как писали несколько дней назад об этом (я gpt2 не крутил, так что мало что могу подсказать), а корпоративы и в принципе новогоднее раздолбайство уже около недели у многих идёт)
источник

D

Den in Natural Language Processing
да писал, но всем было пофиг
источник

V

Vlad in Natural Language Processing
Den
у меня вот блокнотик
https://colab.research.google.com/drive/14I8G1uTUxvUaSF9BG0gaVr4odg5ewYRF,
мне надо запилить:
- интерфейс для I/O
- генерацию на input пользователя
- долговременную/коротковременную (кэш) память
Что подразумевают 1 и 3 пункт?
источник

D

Den in Natural Language Processing
1. GUI (окно для лога и строка ввода)
3. аналогично человеческим мозгам
источник

D

Den in Natural Language Processing
в долговременной памяти мы храним вводную + что запомнила модель, в кратковременной n последних ответов/действий
источник

YB

Yuri Baburov in Natural Language Processing
Den
да писал, но всем было пофиг
всем и сейчас пофиг, вы почему-то тут пишете так, как будто кто-то обязан вам помогать.
источник

D

Den in Natural Language Processing
отвечают заинтересованные
источник

YB

Yuri Baburov in Natural Language Processing
в любом случае, смените, пожалуйста, тон с требовательного на более уместный просительный.
источник

D

Den in Natural Language Processing
у меня нет тона на письме
источник

V

Vlad in Natural Language Processing
Den
1. GUI (окно для лога и строка ввода)
3. аналогично человеческим мозгам
1. Эмм, ну гляньте уроки по какому-нибудь tkinter (или как его там) и запилите себе простое окно. Это никто для вас делать не будет и это не относится к теме чата

3. Вам к учёным гугла, они над этой задачей уже долго мучаются.
источник

D

Den in Natural Language Processing
Vlad
1. Эмм, ну гляньте уроки по какому-нибудь tkinter (или как его там) и запилите себе простое окно. Это никто для вас делать не будет и это не относится к теме чата

3. Вам к учёным гугла, они над этой задачей уже долго мучаются.
как вы себе представляете tkinter в colab? Тут максимум (n)curses
источник

D

Den in Natural Language Processing
по поводу памяти вы сказали какую-то дичь, где-то здесь уже это делалось но достаточно хреново https://github.com/AIDungeon/AIDungeon/
источник

YB

Yuri Baburov in Natural Language Processing
Den
по поводу памяти вы сказали какую-то дичь, где-то здесь уже это делалось но достаточно хреново https://github.com/AIDungeon/AIDungeon/
ну хорошо, разберётесь как улучшить -- нам расскажите 🙂
источник

D

Den in Natural Language Processing
зря вы думаете что я разберусь или заимствую эту имплементацию оттуда
источник

V

Vic in Natural Language Processing
cnstntn kndrtv
как-то так - есть тройка понятий, связанных
мама--имеетСпособностьМыть--рама.
все сущности имеют writenRepresentation и какой-то синсет
мама : [мама, мать],
рама : [рама, окно],
имеетСособностьМыть : [мыть]
Видится что должно быть как-то так:
1. нагенерить по шаблонам предложений: мама мыла раму, моет мама раму, рама мамой моется.
2. какой-то моделькой "украсить" текст. Чтобы "мама мыла раму" стало "мама рано утром эротично мыла тряпкой раму на радость папе")
Текст по шаблонам - что-то видел, но не нашел. Вроде тут кто-то давал ссылку на свой репозиторий - тоже не нашел.
Украшательства текста. Тут GPT-2 справится?
Видел модель на уже обученной модели сеткой генерит, на гитхабе, как раз для задачи аугментации данных. Что-то типа sent2vec гуглить
источник

D

Den in Natural Language Processing
мне удалось найти пример корпуса https://raw.githubusercontent.com/cloveranon/Clover-Edition/master/data/text_adventures.txt
источник

SS

Sergey Shulga in Natural Language Processing
Народ, ваше мнение- есть набор синонимов к ключевым словам, ну условно для фразы "мама мыла раму" к каждому слову есть словарь синонимов. Далее с помощью простого генератора я получаю набор предложений с подставкой и все ок. Проблема начинается с использованием предлогов, если фразы посложнее. Куда смотреть, если я хочу, чтобы алгоритм при генерации выбирал правильные предлоги? Пока в голову лезет только обучить какую-нибудь bilstm сетку для корректной подстановки. Или есть варианты получше?
источник

AB

Arcady Balandin in Natural Language Processing
Если без нейронок то надо двигаться в сторону вычленения фреймов по типу FrameNet. Должна быть какая то база русских глаголов с отпечатком набора аргументов для каждого глагола. И сгруппированных по фреймам.

Типа А любит Б (винительный)
Б (дательный) нравится А (винительный)
источник

AB

Arcady Balandin in Natural Language Processing
Я знаю только о проектах Valpal.info FrameNet VerbNet PropBank но там русского почти нет
источник

YB

Yuri Baburov in Natural Language Processing
был где-то маленький русский framenet
источник