Size: a a a

Natural Language Processing

2019 December 26

D

Dmitry in Natural Language Processing
Всем спать, товарищи!
источник

D

Dmitry in Natural Language Processing
Занавес закрывается
источник

D

Dmitry in Natural Language Processing
Антракт!
источник

D

Dmitry in Natural Language Processing
До новых встреч!)
источник

Miss Очепятка in Natural Language Processing
А о чем спор был?
источник

DK

Denis Kirjanov in Natural Language Processing
Miss Очепятка
А о чем спор был?
Что нейросеть может выловить только априори известные математически понятные вещи и ничего нового о языке никогда не скажет
источник

D

Dmitry in Natural Language Processing
И кто победил то?)
источник

D

Dmitry in Natural Language Processing
Я чёт пропустил этот момент, ходил за попкорном
источник

D

Dmitry in Natural Language Processing
))
источник

CT

Cookie Thief in Natural Language Processing
Мир дружба жвачка
источник

D

Dmitry in Natural Language Processing
))
источник
2019 December 27

A

Aragaer in Natural Language Processing
А вот вопрос. Есть у меня модель, которая из текста выделяет intent (классификация), может пометить нужные части фразы (sequence tagging) и дополнительно вешает лейблы (sentiment analysis). А теперь я хочу обратное - по интенту, параметрам и дополнительным лейблам сгенерить текст. И все это на character-level моделях. Куда копать?
источник

CT

Cookie Thief in Natural Language Processing
Aragaer
А вот вопрос. Есть у меня модель, которая из текста выделяет intent (классификация), может пометить нужные части фразы (sequence tagging) и дополнительно вешает лейблы (sentiment analysis). А теперь я хочу обратное - по интенту, параметрам и дополнительным лейблам сгенерить текст. И все это на character-level моделях. Куда копать?
чем то напоминает ctrl
источник

A

Aragaer in Natural Language Processing
seq2seq из строчке вида
"hello extra:morning" в "Доброе утро"
работает, но не хватает рандомизации вариантов
источник

CT

Cookie Thief in Natural Language Processing
gpt-2 с кондишенами
источник

A

Aragaer in Natural Language Processing
у gpt самая маленькая модель 117 мегабайт. Character-level мне нужен именно из-за размеров
источник

D(

David (ddale) Dale in Natural Language Processing
Aragaer
у gpt самая маленькая модель 117 мегабайт. Character-level мне нужен именно из-за размеров
Если самому делать, можно в десятки мегабайт уложиться.
Ну и если у тебя есть значения слотов, которые можно включить в ответ, то можно вместо значения слота генерировать специальный токен, что на это место значение слота нужно подставить.
Это прям сильно генерацию упрощает)
источник

D(

David (ddale) Dale in Natural Language Processing
Aragaer
seq2seq из строчке вида
"hello extra:morning" в "Доброе утро"
работает, но не хватает рандомизации вариантов
Ну так рандомизация больше не из архитектуры модели следует, а из способа декодирования (у тебя beam search?) и разнообразия обучающей выборки.
источник

A

Aragaer in Natural Language Processing
в обучающей выборке было два варианта для одного интента, на выходе 100% один и тот же
источник

A

Aragaer in Natural Language Processing
модель взял готовую из examples из keras
источник