Size: a a a

Natural Language Processing

2021 March 08

M

Mark in Natural Language Processing
Это вроде не совсем то. Я уже трансформировал модель в onnx используя интерфейс transformers. Я хотел использовать оптимизитор моделей (https://pypi.org/project/onnxruntime-tools/), но выглядит что он работает только с бертом и gpt2
источник

A

Amine in Natural Language Processing
Any good NLP book ? ( something like springer Elements or  ISLR ...)
источник

VR

Vladimir R in Natural Language Processing
источник

IS

I Sh in Natural Language Processing
Mark
Это вроде не совсем то. Я уже трансформировал модель в onnx используя интерфейс transformers. Я хотел использовать оптимизитор моделей (https://pypi.org/project/onnxruntime-tools/), но выглядит что он работает только с бертом и gpt2
Ну, этот пакет, насколько я понимаю, тоже делает экспорт в ONNX.

Можно попробовать так: сначала квантизовать Электру, а потом экспортировать в ONNX, получится, то же самое.

И, может тут что-то найдёте - Микрософт сравнительно недавно выложил примеры использования ONNX: https://www.onnxruntime.ai/
источник

A

Amine in Natural Language Processing
👍
источник

KK

Krep Kospit in Natural Language Processing
Futorio Franklin
скидывай ишьюсом в corus
хорошо, попробую...
источник

Е

Егорка in Natural Language Processing
Добрый вечер. Не могли бы вы, пожалуйста, подсказать в следующей задаче:
Есть несколько моделей для поиска именованных сущностей (например, только организаций). Есть одни модели с наилучшей прецизиозностью, а другие с наилучшей полнотой.
Отсюда вопрос: можно ли получить лучший результат (F-мера), если каким-то способом ансамблировать две модели (например с наилучшими precision и recall) ? Быть может просто пересечь их результаты.
Есть какие-то исследования, статьи или просто практический опыт по проверке такой методики ?
источник

A

Alex in Natural Language Processing
Я получал наилучшие результаты с помощью трёх моделей обученных на разных датасетах. Если минимум две выделяли одинаковую сущность, то данная сущность считалась корректной. Точность возрастала серьезно (+7-12%). Полнота в таком случае получалась примерно средней полноте по 3 моделям.
источник

Е

Егорка in Natural Language Processing
Alex
Я получал наилучшие результаты с помощью трёх моделей обученных на разных датасетах. Если минимум две выделяли одинаковую сущность, то данная сущность считалась корректной. Точность возрастала серьезно (+7-12%). Полнота в таком случае получалась примерно средней полноте по 3 моделям.
Понял. А вы сравнивали с другими способами комбинирования моделей ?
источник

A

Alex in Natural Language Processing
С другими результатами комбинирования не сравнивалось. Только с показателями каждой отдельной модели проводилось сравнение.
источник

Е

Егорка in Natural Language Processing
Большое спасибо
источник
2021 March 09

E

Eug in Natural Language Processing
Доброе утро! Подскажите, пожалуйста, какие есть инструменты/подходы для преобразования вопроса с несколькими вариантами ответа ("Какую оценку получил Вася на экзамене?" "Пятёрку" "Четвёрку" "Тройку" "Двойку") в набор вопросов с вариантами ответа да/нет ("Вася на экзамене получил пятёрку?" "Вася на экзамене получил четвёрку?" ...).
На ум приходит примерно такой подход: выполнить синтаксический разбор вопроса; на его основе по некоему набору правил сформировать вопросы по вариантам ответа.
Выглядит сложновато и не особо конкретно. :-(
источник

N

Natalia in Natural Language Processing
не сложновато как раз
источник

E

Eug in Natural Language Processing
Natalia
не сложновато как раз
думаете, стоит так попробовать?
источник

N

Natalia in Natural Language Processing
ну я не думаю, это довольно очевидный подход. всякие DL-модели нужны обычно там, где как раз ответы не заданы, а если задача очевидно в сопоставлении двух сегментов с одинаковой синт. функцией, то зачем усложнять
источник

N

Natalia in Natural Language Processing
но всегда всё зависит от ваших данных
источник

RA

Ramil Askarov in Natural Language Processing
Ребзь, всем привет! Подскажите годный спелл корекшн для русского и английского языка, скорость работы в приоритете. Нужно примерно за 5-7 минут прогнать 50к предложений
источник

AK

Alexander Kukushkin in Natural Language Processing
Доклады про соревнования на Диалоге https://www.youtube.com/watch?v=PlNg1u5VEmo. Начинать участвовать уже поздновато, полезно знать про новые датасеты на русском, интересно в конце сорев почитать про топовые решения.

- Почему нормализация именованных сущностей сложнее, чем просто лемматизация. Natasha как бейзлайн
- Кластеризация новостей, выбор заголовков. B2C делают агрегаторы Яндекс, Гугл, Рамблер, Мейл, Сми2. B2B делают мониторинги типа Медиалогии
- Семантические скетчи звучит пугающе, задача научная сложная, практического приложения не видно.
- Как собрать датасет для симплификации. Большой грязный: упрощённая Вики, гугловый перевод. Маленький вручную собранный на Толоке.
источник

KA

Katya Artemova in Natural Language Processing
Alexander Kukushkin
Доклады про соревнования на Диалоге https://www.youtube.com/watch?v=PlNg1u5VEmo. Начинать участвовать уже поздновато, полезно знать про новые датасеты на русском, интересно в конце сорев почитать про топовые решения.

- Почему нормализация именованных сущностей сложнее, чем просто лемматизация. Natasha как бейзлайн
- Кластеризация новостей, выбор заголовков. B2C делают агрегаторы Яндекс, Гугл, Рамблер, Мейл, Сми2. B2B делают мониторинги типа Медиалогии
- Семантические скетчи звучит пугающе, задача научная сложная, практического приложения не видно.
- Как собрать датасет для симплификации. Большой грязный: упрощённая Вики, гугловый перевод. Маленький вручную собранный на Толоке.
Спасибо! Насколько я понимаю, на всех соревнованиях сейчас будут продлевать сроки, так что присоединиться не поздно :)
источник

KA

Katya Artemova in Natural Language Processing
Семантические скетчи можно воспринимать как бертологию, что непрактично, но полезно :)
источник