Size: a a a

Natural Language Processing

2019 October 14

T

Teemoor in Natural Language Processing
из бесплатных не знаю
источник

ИГ

Иван Гладуш in Natural Language Processing
Здравствуйте,  решил посмотреть на возможности это интересной либы, и столкнулся со следующей ошибкой.
При запуске теста, получаю следующую ошибку
site-packages/natasha/preprocess.py", line 20, in normalize_text
   return text.translate(DASHES)
TypeError: expected a character buffer object
источник

ИГ

Иван Гладуш in Natural Language Processing
Кто-то знает как это можно исправить пофиксить
источник

V

Vlad in Natural Language Processing
А без запуска тестов проверяли? Просто свой текст на вход подавать
источник

ИГ

Иван Гладуш in Natural Language Processing
Скопировал пример с гитхаба, таже ошибка
источник
2019 October 15

М

Михаил in Natural Language Processing
Всем привет. Кто-нибудь решал такую задачу? В текстве надо найти
№ 120903
№ КО12
№  АБ-л1234


Умеет ли yargy c этим работать или тут только регулярные выражения?
источник

D

Dmitry in Natural Language Processing
Михаил
Всем привет. Кто-нибудь решал такую задачу? В текстве надо найти
№ 120903
№ КО12
№  АБ-л1234


Умеет ли yargy c этим работать или тут только регулярные выражения?
Скорее всего  только регулярки
источник

М

Михаил in Natural Language Processing
Dmitry
Скорее всего  только регулярки
Ок, спасибо)
Поделюсь, когда найду решение)
источник

М

Михаил in Natural Language Processing
Получилось сделать через yargy c регуляркой, через TokenRule. Тут есть решение с URL
https://github.com/natasha/yargy-examples/blob/master/03_fsem/notes.ipynb

насчёт скорости хз, коненчно, но в общую архитектуру удалось встроить! спасибо этому чату)
источник

B

Brenoritvrezorkre in Natural Language Processing
Есть вопрос. Существуют ли готовые решения в области парсинга научных статей, где ты формируешь запрос по некоторой тематике, а парсер выдаёт список статей, причём не всех, а валидных с точки зрения известных критериев (стат. мощность, по тому, как формировалась выборка, и т.п.)?
источник

B

Brenoritvrezorkre in Natural Language Processing
Самому искать по статьям очень рутинно. Мало ли есть вещи, которые позволяют от этого избавиться.
источник

B

Brenoritvrezorkre in Natural Language Processing
Понимаю, что вопрос фантастический, но мало ли.
источник

B

Brenoritvrezorkre in Natural Language Processing
Поиск тематик по названию, ключевым словам и дополнительно по найденным темам майкрософт академик / semantic scholar, допустим, затем получаем массив doi, через сайхаб получаем исходники, распознаём текст (открытые апи по теме должны быть), а затем самое сложное: определение, валидна статья или нет
источник

PL

Pavel Lebedev in Natural Language Processing
источник

Н

Никита in Natural Language Processing
а в deeppavlov можно в chain вставить тренировку своих эмбеддингов fasttext?
Я вижу только загрузку, т.е. load_path параметр
источник

NK

Nikolay Karelin in Natural Language Processing
Brenoritvrezorkre
Есть вопрос. Существуют ли готовые решения в области парсинга научных статей, где ты формируешь запрос по некоторой тематике, а парсер выдаёт список статей, причём не всех, а валидных с точки зрения известных критериев (стат. мощность, по тому, как формировалась выборка, и т.п.)?
Я всегда смотрю на число цитирования работы. Продукт такой нужен, но пока сложно.
источник

B

Brenoritvrezorkre in Natural Language Processing
Внезапно в своём вопросе я сам упомянул данный ресурс.
источник

ID

Ivan Dolgov in Natural Language Processing
Всем привет, ребят, подскажите, пожалуйста, есть ли хак, как избавиться от for loop'а в декодере seq2seq модели с attention?
источник

A

Aragaer in Natural Language Processing
а почему от него нужно избавляться?
источник

A

Aragaer in Natural Language Processing
декодер же по идее выдает по одному символу/слову, которое надо снова отправлять на вход, чтобы получить следующее.
источник