Добрый день, подскажите пожалуйста, где можно найти рабочие примеры sequence-to-sequence сетей для слов под Keras? Решаю одну задачку, по предсказанию одного слова под другому, но что то никак не выходит
Для русского предобученные эмбединги принято скачивать с сайта RusVectores. В проекте Natasha мы используем свои эмбединги, называются Navec https://github.com/natasha/navec, по intrinsic-метрикам качества они чуть-чуть не дотягивают по топовых решений RusVectores, зато размер архива с весами в 5-6 раз меньше (51МБ), словарь в 2-3 раза больше (500К слов).
Напишите в личку @alexkuk кому интересно почитать статьи для natasha.github.io до публикации. Следующая будет про коллекция датасетов для русскоязычного NLP. С меня ссылочка за две недели до публикации, с вас ревью что непонятно.