Size: a a a

Natural Language Processing

2021 November 25

МЕ

Максим Ермаков... in Natural Language Processing
Благодарю за ответ 👍
источник

OS

Oleg Somov in Natural Language Processing
Всем привет!
Подскажите пожалуйста готовые решения по извлечению триплетов из текста на русском языке
источник

IG

Ilya Gusev in Natural Language Processing
источник

OS

Oleg Somov in Natural Language Processing
А куда смотреть?)
источник

IG

Ilya Gusev in Natural Language Processing
на статьи
источник

IG

Ilya Gusev in Natural Language Processing
можно начать с обзорной https://aclanthology.org/2020.webnlg-1.7.pdf
источник

IG

Ilya Gusev in Natural Language Processing
вот одно из решений на базе T5 в обе стороны: https://aclanthology.org/2020.webnlg-1.13.pdf
источник

OS

Oleg Somov in Natural Language Processing
Спасибо за статьи,изучу!
Я скорее ищу какое-то легкое готовое решение, можно над синтаксическим деревом, по извлечению триплетов.
источник

IG

Ilya Gusev in Natural Language Processing
Я таких не знаю, но это не значит, что их нет. Беглый поиск дал вот это: https://github.com/IINemo/isanlp
источник

VG

Vladimir Grigoryev in Natural Language Processing
в textacy вроде что-то подобное было
источник

ТС

Томатный Сок... in Natural Language Processing
Всем привет. ruGPT-3 демо не работает уже недели 2. С чем это связано?
источник

DB

Dmitry Belkevich in Natural Language Processing
исписался видимо )
источник

AF

Alena Fenogenova in Natural Language Processing
уже работает =)
источник

М

Майя in Natural Language Processing
Всем привет! Никто не пробовал/не находил реализацию алгоритмов выбора negative sampling, но в применении для классификации предложений?

У меня очень несбалансированный датасет, где 80% данных - это один класс, и остальные 20% - это ещё 5 классов. И модель плохо обучается (пробовала сбалансировать датасет и на каждой эпохе подкидывать рандомно выбранные из большого класса экземпляры, каждый раз другие, но не особо помогает).

Или может кто-то сталкивался с такой проблемой?
источник

SancheZz Мов in Natural Language Processing
А хард негативы семплил?
источник

SancheZz Мов in Natural Language Processing
В батче во время обучения
источник

AW

Alex Wortega in Natural Language Processing
Всем привет, хочу сделать ner для кастомных сущностей, есть cooking recipes?
источник

М

Майя in Natural Language Processing
Нет, спасибо за идею! Значит, попробую семплить какой-то процент хард негативов в каждый батч и тренировать на них.
источник

DD

David Dale in Natural Language Processing
1) обучать берт на NER можно примерно таким путём: оригинальный блокнот от huggingface, моя адаптация для русского
2) если размеченных данных мало, хорошо заходит active learning (прогоняешь модель через неразмеченные данные, отбираешь несколько десятков самых неуверенных примеров, размечаешь их руками, добавляешь в обучающую выборку, дообучаешь модель, повторяешь). Размечать NER очень удобно в labelstudio
источник

DD

David Dale in Natural Language Processing
В качестве бейзлайна очень рекомендую безMLный алгоритм попробовать, например, на yargy
источник