Size: a a a

Natural Language Processing

2019 December 10

m

mel kaye in Natural Language Processing
хотя по итогу даже s/mimd не вытащил ибо в какой то момент "а поднимите значение этого параметра на единицу" привело к попытке аллоцировать тензор на 180 гб
источник

m

maniac in Natural Language Processing
я вообще зашел спросить, есть ли открытый (или хотя бы бесплатный) оффлайн tts-движок (или хотя б модели к фестивалю) для русского
источник

m

mel kaye in Natural Language Processing
а потом оказалось что в питонячие фреймворки спарс тензоров с быстрым rrw доступом не завезли
источник

AZ

Alexandr Zamaraev in Natural Language Processing
maniac
я вообще зашел спросить, есть ли открытый (или хотя бы бесплатный) оффлайн tts-движок (или хотя б модели к фестивалю) для русского
источник

m

maniac in Natural Language Processing
о, блин, точно, спасибо
источник

m

maniac in Natural Language Processing
находил, положил в избранное на гитхабе и немедленно забыл
источник

m

mel kaye in Natural Language Processing
welp, если rt/rf суприм для мла, почему бы не попробывать их в алгоритмах
and i gonna tell you, it rocks
источник

А

Антон in Natural Language Processing
Друзья, добрый день. Ищем специалиста по нейросетям и машинному обучению. Есть список текстов уже разбитых на категории. Нужно сделать алгоритм, которые будет разбивать на категории на основе нейросетей или машинного обучения. Кто сможет помочь с данной задаче на платной основе? Пишите мне в личку.
источник

NS

Nikolay Shmyrev in Natural Language Processing
Более современная технология https://github.com/alphacep/tn2-wg
источник

YB

Yuri Baburov in Natural Language Processing
Антон
Друзья, добрый день. Ищем специалиста по нейросетям и машинному обучению. Есть список текстов уже разбитых на категории. Нужно сделать алгоритм, которые будет разбивать на категории на основе нейросетей или машинного обучения. Кто сможет помочь с данной задаче на платной основе? Пишите мне в личку.
Не хотите так же сами засунуть всё это в фасттекст? А вот тут видео-инструкция и примеры: https://github.com/buriy/nlp_workshop
источник

А

Антон in Natural Language Processing
Yuri Baburov
Не хотите так же сами засунуть всё это в фасттекст? А вот тут видео-инструкция и примеры: https://github.com/buriy/nlp_workshop
Может быть и хочу) Но до конца не разбираюсь как это сделать, поэтому понял что потребуется чья-то помощь в этом плане.
источник

m

maniac in Natural Language Processing
и за это спасибо.
источник

П

Павел in Natural Language Processing
V
на данный момент тестирую эту модель в pet-проекте (создаю мультимодальные векторные представления для изображений и текста с целью последующей zero-shot визуализации данных). работает лучше, чем мультиязычный fasttext и быстрее чем BERT (который к тому же ещё и довольно прожорлив в плане ресурсов). думаю, в процессе проведу таки сравнение с Multilingual-USE на том же XNLI, или на тестовых наборах данных, которые предлагает сам fb.

один энтузиаст создал очень удобный пакет для быстрого развёртывания лазера, laserembeddings в PyPI. если нужна только предобученная модель, то можно воспользоваться этим пакетом, очень удобно (по сравнению с вознёй с Docker, которую предлагают в официальном репозитории проекта). есть и неприятные мелочи, например лучше заранее знать язык параграфа, для которого нужно получить векторное представление (либо определять язык на лету отдельной моделью), так как LASER по-разному токенизирует разные языки, и модели нужно явно указывать, какой токенизатор применить для каждого документа.
А какие требования на инференс модели, и как Вы препроцессите текст перед тем, как его скормить?
источник

IG

Ilya Gradina in Natural Language Processing
Антон
Друзья, добрый день. Ищем специалиста по нейросетям и машинному обучению. Есть список текстов уже разбитых на категории. Нужно сделать алгоритм, которые будет разбивать на категории на основе нейросетей или машинного обучения. Кто сможет помочь с данной задаче на платной основе? Пишите мне в личку.
можно fasttext(https://github.com/facebookresearch/fastText/tree/master/python#train_supervised-parameters) , или использовать модели https://rusvectores.org/ru/models/ и через тотже xgboost.  (лучше использовать  свои модели  обученные на словах в норм. форме и concatenate w2v и fasttext ).
источник

MK

Marianna Kovalova in Natural Language Processing
Всем привет! Был ли у кого-то опыт классификации текстов, когда много классов (около 1000 классов)? Какие подходы тут могут подойти? Что почитать?
источник

NS

Nikolay Shmyrev in Natural Language Processing
Marianna Kovalova
Всем привет! Был ли у кого-то опыт классификации текстов, когда много классов (около 1000 классов)? Какие подходы тут могут подойти? Что почитать?
источник
2019 December 11

M

Md sohaib in Natural Language Processing
Can someone provide me with the resources to learn Natural language processing for free ?
источник

nu

n. ul in Natural Language Processing
cs224 course lectures on youtube?
источник

V

Viktor in Natural Language Processing
источник

I

Ilya in Natural Language Processing
Добрый вечер! Нужен совет по эмбедингам в керасе. Вот, собственно, формулировка:
https://stackoverflow.com/questions/54551316/keras-extending-embedding-layer-input
Как можно расширить (наследовать) существующие эмбединги?

Подозреваю, что только переобучивать
источник