Size: a a a

Natural Language Processing

2021 November 13

SM

Sergei Markoff in Natural Language Processing
В начале следующей недели. Я кину ссылку сюда.
источник

M

Max in Natural Language Processing
Понял, спасибо ещё раз)
источник

SS

Sergey Shulga in Natural Language Processing
При подготовке датасета для ner, нужно ли в нем оставлять предложения, в которых вообще нет сущностей, как примеры отсутствия, и если нужно, то насколько много?
источник

Е

Егорка in Natural Language Processing
Обучение или обученные модели сравниваешь?
источник

SS

Sergey Shulga in Natural Language Processing
Именно для обучения
источник

PG

Prohor Gladkikh in Natural Language Processing
Нужно, но нельзя, чтобы предложений без сущностей было >X%. X - по дефолту ~50, дальше надо подбирать, тк зависит от сущностей, длины предожений и проекта.
Подбирать по результатам на валидации, где есть все предложения без сущностей.
источник

SS

Sergey Shulga in Natural Language Processing
Ага, спасибо. Так и думал, только пропорция интересовала. Но до 50 процентов, это не слишком много? Или таким образом добиваемся большей точности?
источник

PG

Prohor Gladkikh in Natural Language Processing
Там trade-off будет: сваливание модели в то, чтобы вообще ничего не предсказывать vs высокий false positive на валидации.
источник

A

Anton in Natural Language Processing
Новая модель для перевода от FB.
На какую карту она влезет? Вес модели 17,5 Gb🤷‍♂️

https://twitter.com/psuraj28/status/1459546962571587591?t=oevGBOtfEDQ8EGby5iOFbw&s=19
источник

FF

Futorio Franklin in Natural Language Processing
Ну на A100 влезет
источник

R

Runtime Еггор in Natural Language Processing
V100, p6000, 3090...
источник

A

Anton in Natural Language Processing
Скорее это был риторический вопрос ))
Что модель уже не использовать "на коленке", на какой-нибудь домашней карте.
источник
2021 November 14

ИМ

Игорь Михайлов... in Natural Language Processing
Всем привет, пишу проект-whitepaper по NLP, нужна консультация сегодня на 1-1.5 часа по используемым технологиям и точности терминологии, заплачу 5-10 тыс.руб. Кто готов помочь, плз пишите в личку.
источник

BZ

Below Zero in Natural Language Processing
Привет, задача такая - делать seq2seq из кода в код. Существенно, что словарь на выходе сильно отличается от входного. Какую модель взять, чтобы не собирать все с нуля? у Т5 вроде словари одинаковые
источник

IG

Ilya Gusev in Natural Language Processing
источник

IG

Ilya Gusev in Natural Language Processing
и не очень понятно, с чего бы словарям отличаться
источник

BZ

Below Zero in Natural Language Processing
На выходе - псевдокод, словарь гораздо меньше
источник

IG

Ilya Gusev in Natural Language Processing
так и что? не больше же, это обучению модели не помешает
источник

IG

Ilya Gusev in Natural Language Processing
сейчас все словари миниатюрные (типа 50000 токенов)
источник

IG

Ilya Gusev in Natural Language Processing
можно сразу в обе стороны учить, это может и на качестве модели хорошо отразиться
источник