Size: a a a

Natural Language Processing

2020 June 06

t

toriningen in Natural Language Processing
а веса уже где-то доступны?
источник

AS

Anton Strelets in Natural Language Processing
Vic
Есть мод gpt он управляется: задаётся начало и концовка и тем самым модель не скатывается в треш.
Что за мод?
источник

ES

Eugene Solomatin in Natural Language Processing
Aleksandr
Всем алоха. Есть у кого материал или сборки по NLP – извлечение именованных сущностей?
источник

YB

Yuri Baburov in Natural Language Processing
задача называется NER (Named entity recognition). про неё материалов -- вагон.
источник
2020 June 08

S

Sergei in Natural Language Processing
Коллеги, встречали хорошие обзорные материалы по стартапам, которые по большей части на NLP завязаны?
источник

D

Dmitry in Natural Language Processing
Что эта аудиозапись делает тут? И кто админ?)
источник

AK

Anton K. in Natural Language Processing
датасет прислали
источник

D

Dmitry in Natural Language Processing
Anton K.
датасет прислали
точно))
источник

D

Dmitry in Natural Language Processing
пятисекундный датасет
источник

D•

Dan • Captain in Natural Language Processing
@dveselov надо ставить другого бота :)
источник

DV

Dima Veselov in Natural Language Processing
видимо да, спасибо)
источник

М

Михаил in Natural Language Processing
Привет всем. Какой sentence embedder для русского языка лучше использовать, чтобы потом искать близкие предложения? (e.g. universal-sentence-encoder, InferSent, bert etc.) Что является SOTA?
источник

RB

Radion Bikmukhamedov in Natural Language Processing
sentence-bert можно посмотреть еще
источник

АН

Александр Нагаев... in Natural Language Processing
возьми просто ft или elmo по каждому токену и усредни
источник

SP

Sebastian Pereira in Natural Language Processing
Михаил
Привет всем. Какой sentence embedder для русского языка лучше использовать, чтобы потом искать близкие предложения? (e.g. universal-sentence-encoder, InferSent, bert etc.) Что является SOTA?
Для русского все сложно. По идее SOTA это rubert от deep Pavlov но в Продакшн эта SOTA не умеет.  Есть вариант который предложили выше Elmo от rusvectores
источник

D(

David (ddale) Dale in Natural Language Processing
Михаил
Привет всем. Какой sentence embedder для русского языка лучше использовать, чтобы потом искать близкие предложения? (e.g. universal-sentence-encoder, InferSent, bert etc.) Что является SOTA?
Если нужно именно sentence level, то у меня мультиязычные Laser и USE давали результат лучше, чем русскоязычный BERT
источник

CT

Cookie Thief in Natural Language Processing
плюсую за мультиязычный use
источник

э

эдуард in Natural Language Processing
Михаил
Привет всем. Какой sentence embedder для русского языка лучше использовать, чтобы потом искать близкие предложения? (e.g. universal-sentence-encoder, InferSent, bert etc.) Что является SOTA?
мне вот эти нравятся

https://tfhub.dev/google/universal-sentence-encoder-multilingual/3
https://tfhub.dev/google/universal-sentence-encoder-multilingual-large/3
https://tfhub.dev/google/universal-sentence-encoder-multilingual-qa/3

сравнивал на своих задачках с rubert-ами, плюс-минус то же самое, но сильно проще
источник

D

Dmitry in Natural Language Processing
Всем привет
Есть ли какие-нибудь способы для автоматического создания словарей из текста для дальнейшего его использования в том же Yargy или только вручную и готовые словари?
источник

М

Михаил in Natural Language Processing
@cointegrated, спасибо посмотрю Laser и USE. Они давали результаты лучше именно чем RuBERT или чем все BERT based модели (Sentence RuBERT, Sentence Multilingual BERT)? И было ли их сравнение с Elmo и для этой задачи?
А особенно меня интересует сравнение с universal-sentence-encoder-multilingual и InferSent (если есть его варианты для русского).
источник