Size: a a a

Natural Language Processing

2021 December 14

VM

Valentin Malykh in Natural Language Processing
семинары и задания доступны при регистрации на курс
источник

VM

Valentin Malykh in Natural Language Processing
новый запуск курса будет в феврале
источник

ТИ

Танненберг Илья... in Natural Language Processing
У Эндрю Ng тоже упоминаются
источник

o

oldysty in Natural Language Processing
Спасибо. Раз начали разговор про курс. В самом первом тесте, кажется, есть вопрос про связь иерархии Хомского и регулярными выражениями. Но я ни в одной версии курса не видел теорию на эту тему(смотрел в перемотке, не очень внимательно). Это я проглядел или это для самостоятельной работы?
источник

Y

Yurii in Natural Language Processing
Круто!
источник

VM

Valentin Malykh in Natural Language Processing
два раза проговариается в курсе (в первой и 7-ой, кажется, лекции), плюс есть методичка, где это описано
источник

VM

Valentin Malykh in Natural Language Processing
методичка недописана, поэтому я ее даю только студентам, но начальные главы уже есть
источник

o

oldysty in Natural Language Processing
Спасибо
источник

IG

Ilya Gusev in Natural Language Processing
Конкретные архитектуры типа LSTM/GRU уже бесполезны, да. А вот как концепт и база для других исследований рекуррентные сети живее всех живых, например https://github.com/hazyresearch/state-spaces
источник

SancheZz Мов in Natural Language Processing
В тоже время МОЕ тоже использует аналог вентилей и гейтов как в  gru
источник

SancheZz Мов in Natural Language Processing
Действительно это полезное знание
источник

ГZ

Гражданин Z in Natural Language Processing
в каких задачах концепт рекуретных сетей лучше, чем трансформеры?
источник

SancheZz Мов in Natural Language Processing
BiLSTM+CRF в НЕр?)
источник

SancheZz Мов in Natural Language Processing
Наверное не хуже
источник

SancheZz Мов in Natural Language Processing
BiDAF
источник

IG

Ilya Gusev in Natural Language Processing
Ровно в тех, которые я скинул, например. Можно перейти по ссылкам и увидеть чудесную табличку.
источник

IG

Ilya Gusev in Natural Language Processing
(другое дело, что s4 это не совсем рекуррентные сети, но почти)
источник

IG

Ilya Gusev in Natural Language Processing
а вот языковое моделирование, в которой эта модель в 60 раз быстрее трансформеров
источник

ГZ

Гражданин Z in Natural Language Processing
наверное? но ведь трансфомеры же ещё и быстрее - их можно на карточках парралелить
источник

SancheZz Мов in Natural Language Processing
А лстмки низя в хоровод?)
источник