Size: a a a

Natural Language Processing

2021 November 21

Е

Егорка in Natural Language Processing
Спасибо всем за ответы
источник

NK

Nikolay Karelin in Natural Language Processing
При правильном подходе word2vec умеет даже таблицу Менделеева воссоздать: "Unsupervised word embeddings capture latent knowledge from materials science literature", doi:10.1038/s41586-019-1335-8,  https://github.com/materialsintelligence/mat2vec
источник

Е

Егорка in Natural Language Processing
Да, ни секунды в нём не сомневался
источник

Е

Егорка in Natural Language Processing
Спасибо, помогло разобраться
источник
2021 November 22

МВ

Марк Верхотуров... in Natural Language Processing
Всем привет! Подскажите, пожалуйста, готовый код какого-нибудь генератора, для подачи в НС, большого объема текстовых данных частями.
источник

A

Anton in Natural Language Processing
Марк, привет.
Погугли streaming iterable dataset. Там примеры есть точно.
источник

МВ

Марк Верхотуров... in Natural Language Processing
Антон, привет. Спасибо!
источник

D

Dmitry in Natural Language Processing
Коллеги, а есть такой аналог коллаба чтобы можно было все как в коллабе, но только если закрыл вкладку оно продолжило выполняться ?))
источник

DD

David Dale in Natural Language Processing
У Яндекса такой есть: https://cloud.yandex.ru/services/datasphere
источник

OR

Oleg Ruban in Natural Language Processing
колаб про)

ML Space ещё можешь попробовать
источник

VB

Vaishali Birla in Natural Language Processing
*Exclusive session with Certification by TechLearn on :*🥳

*Netflix Recommendation-How do they know what you like?*🔥

Recommendation algorithms are at the core of the OTT platforms. They provide users with personalized suggestions to reduce the amount of time/frustration to find something great content to watch. Because of the importance of such recommendations, OTT platforms like Netflix continually seek to improve them by advancing the state-of-the-art in the field.

👉Register at: DM me for registration  link

*What you’ll learn in this live session?*
1. What is Natural Language processing
2. Natural Language Processing applications
3. What is Data Processing
4. Types of Data processing
5. What is a recommendation system
6. Types of recommendation system


🗓️ *Date:* *24th and 26th November, 2021*
⏰ *Time:* *7:00 pm- 8:30 pm*

*Features:*                                                                                    
-Shareable Certificate📜
-Instant doubt resolution🙋‍♂️
-Practice Material📝

📩 Session Link will be mailed to you on your registered mail ID on the day itself.
источник

D

Dmitry in Natural Language Processing
гхм, у меня коллаб про. но что-то как я хочу не работает)
источник

D

Dmitry in Natural Language Processing
Спасибо попробую, еще не щупал.
источник

OR

Oleg Ruban in Natural Language Processing
поправочка, колаб про+ имеет работу в фоне, а колаб про нет 🤭
источник

S

Sergey in Natural Language Processing
Всем привет. А не подскажите, что использовать для задачи STS на русском? Что-то не могу найти ничего.
источник

IG

Ilya Gusev in Natural Language Processing
именно датасетов с градациями не встречал, а вот бинарных датасетов перефраз предостаточно
источник

IG

Ilya Gusev in Natural Language Processing
я в теории даже готов вложиться в русский sts :)
источник

IG

Ilya Gusev in Natural Language Processing
для понимания, о чём вообще речь https://aclanthology.org/S17-2001.pdf
источник

DD

David Dale in Natural Language Processing
Из датасетов - парафразер-точка-ру (http://paraphraser.ru/download) и переведённый sts-b https://huggingface.co/datasets/stsb_multi_mt

Из моделей - детектор парафраз DeepPavlov (http://docs.deeppavlov.ai/en/master/features/overview.html#ranking-model-docs,  и мой порт его  на торч - https://huggingface.co/cointegrated/rubert-base-cased-dp-paraphrase-detection), классификатор парафраз Алёны Феногеновой (https://huggingface.co/alenusch/par_cls_bert), моя модель NLI, которую можно запустить в двух направлениях и перемножить скоры (https://huggingface.co/cointegrated/rubert-base-cased-nli-twoway). Ну и косинусная близость LABSE, USE, LASER и прочих хороших sentence encoder'ов.
источник

Д

Данил in Natural Language Processing
Привет! Есть задача восстановления input'а (на вход трансформеру поступает input, а именно какие-то последовательности событий, output должен быть равен input), какую метрику оценки взять для этого? Хочется пробовать изначально на маленьком количестве данных, чтобы отсекать сразу архитектуры, которые плохо потенциально будут работать на большом объеме данных
источник