Size: a a a

Natural Language Processing

2017 September 27

t2

tonko 22 in Natural Language Processing
я то я в итоге замучал yorko вопросами, а он не нлпшник
источник

|

||||| in Natural Language Processing
источник

t2

tonko 22 in Natural Language Processing
вот это подворот
источник

t2

tonko 22 in Natural Language Processing
а я как раз начал читать про starspace и отложил потому что очень много текста
источник

t2

tonko 22 in Natural Language Processing
эх
источник

t2

tonko 22 in Natural Language Processing
на видео они конечно не пишут?
источник

|

||||| in Natural Language Processing
неа. ну сегодня ничего супер подробного на самом деле про starspace не рассказывали, просто краткий обзор
источник

t2

tonko 22 in Natural Language Processing
ну ладно тогда
источник

|

||||| in Natural Language Processing
говорят, что в статье всё подробно и хорошо написано :)
источник

t2

tonko 22 in Natural Language Processing
хехе, я уже открыл)
источник
2017 September 28

AZ

Andrey Zakharov in Natural Language Processing
Блин, вот это крутота
источник

АМ

Александр Мамаев in Natural Language Processing
Всем привет, вопрос такой, какие существуют способы дообучить word vec на опредеоенной семвнтике
источник

t2

tonko 22 in Natural Language Processing
Сам мучаюсь таким вопросом, только про doc2vec. В  gensim есть online training только для word2vec, причем его запилили сторонние ребята ( https://groups.google.com/forum/#!topic/gensim/UZDkfKwe9VI и http://rutumulkar.com/blog/2015/word2vec) и я не уверен что они добавили это сборку gensim. Дообучение приводит к иным, более плохим результатам, чем обучение модели с нуля.
источник

АМ

Александр Мамаев in Natural Language Processing
если бахнуть мой корпус с корпусом русского языка - будет неоч?
источник

t2

tonko 22 in Natural Language Processing
Да, надо вместе обучать
источник

t2

tonko 22 in Natural Language Processing
Новый корпус, почти не повлияет на связи в уже существующей части модели.
источник

t2

tonko 22 in Natural Language Processing
Особенно если он меньше
источник

t2

tonko 22 in Natural Language Processing
Суть в том что там скорость обучения уменьшается с эпохами
источник

t2

tonko 22 in Natural Language Processing
У тебя или старые не обучатся на новых (вернуть большую альфа) либо новые не обучатся ни на себе ни на старых(оставить скорость как есть).
источник
2017 September 29

AK

Alexander Kukushkin in Natural Language Processing
Помогите, пожалуйста, составить список инструментов для NER. Текущий список https://docs.google.com/spreadsheets/d/1H9bxrakQPhC59BIpxsis0ppzP5aUmvmJSKfX8EQ-vVM/edit#gid=0 . Чего не хватает?
источник