Size: a a a

Natural Language Processing

2020 July 13

MT

Mikhail Tikhomirov in Natural Language Processing
Вообще есть задача сжатия предложений, если я не ошибаюсь, можно погуглить подходы по этой задаче. По духу схоже с саммаризацией
источник

I

I Апрельский... in Natural Language Processing
кстати, в чате DL in NLP в двух словах обсуждали
источник

AI

Andrew Ishutin in Natural Language Processing
Дайте, пожалуйста, ссылку на чат
источник

OD

Oleg Durandin in Natural Language Processing
Andrew Ishutin
Дайте, пожалуйста, ссылку на чат
источник

AI

Andrew Ishutin in Natural Language Processing
Спасибо
источник

ck

cnstntn kndrtv in Natural Language Processing
👋 есть у нас, допустим, NER из нескольких токенов, разбитых другими токенами. Например "Нижний, мать его, Новгород". Это инверсия наверное. Как с такими случаями поступают известные решения (Natasha, Spacy например)?
источник

I

I Апрельский... in Natural Language Processing
cnstntn kndrtv
👋 есть у нас, допустим, NER из нескольких токенов, разбитых другими токенами. Например "Нижний, мать его, Новгород". Это инверсия наверное. Как с такими случаями поступают известные решения (Natasha, Spacy например)?
Как правила написаны, так и поступает
источник

ck

cnstntn kndrtv in Natural Language Processing
I Апрельский
Как правила написаны, так и поступает
какой вопрос - такой и ответ))
источник

I

I Апрельский... in Natural Language Processing
Вижу ты добавил про Спейси... Добавлю тоже:
Как данные были размечены, так и поступает
источник

ck

cnstntn kndrtv in Natural Language Processing
I Апрельский
Вижу ты добавил про Спейси... Добавлю тоже:
Как данные были размечены, так и поступает
это инверсия, или какой-то специальный термин придумали?
источник

I

I Апрельский... in Natural Language Processing
Ни Спейси ни Наташа никаких терминов не знает, так что назвать можно как удобнее
источник

YB

Yuri Baburov in Natural Language Processing
cnstntn kndrtv
👋 есть у нас, допустим, NER из нескольких токенов, разбитых другими токенами. Например "Нижний, мать его, Новгород". Это инверсия наверное. Как с такими случаями поступают известные решения (Natasha, Spacy например)?
я скажу так: понимать разрывы прямой речи ни одно решение не умеет, это редкая штука. При этом, в датасет при желании такие тренировочные примеры добавить легко.
источник

I

I Апрельский... in Natural Language Processing
Кажется и правила можно несложные придумать, но поди FP вырастит так, что не захочется использовать
источник

OS

Oleg Serikov in Natural Language Processing
cnstntn kndrtv
это инверсия, или какой-то специальный термин придумали?
это точно не инверсия, похоже на инфикс, но я сомневаюсь
источник

DD

David Dale in Natural Language Processing
Возможно, имеет смысл сначала решить задачу удаления из текста междометий и прочих малозначимых слов, а потом уже запускать NER.

По такому пути идут, в частности, в навыках яндексовской Алисы - сначала нейронка (с учётом контекста)  и/или словарь предсказывает значимость каждого слова, а потом запускаются правиловые парсеры и NER, которые могут слова с низкой предсказанной значимостью просто игнорировать.
источник

ck

cnstntn kndrtv in Natural Language Processing
Интерсено, если это инфикс, корректно ли выносить его? Например было А B A - станет AA B или B AA.
источник

ck

cnstntn kndrtv in Natural Language Processing
David Dale
Возможно, имеет смысл сначала решить задачу удаления из текста междометий и прочих малозначимых слов, а потом уже запускать NER.

По такому пути идут, в частности, в навыках яндексовской Алисы - сначала нейронка (с учётом контекста)  и/или словарь предсказывает значимость каждого слова, а потом запускаются правиловые парсеры и NER, которые могут слова с низкой предсказанной значимостью просто игнорировать.
Обучают НС на примерах, или как-то используют аттэншн?
источник

I

I Апрельский... in Natural Language Processing
Нейронные, аттеншн их, сети
источник

I

I Апрельский... in Natural Language Processing
(простите)
источник

DD

David Dale in Natural Language Processing
cnstntn kndrtv
Обучают НС на примерах, или как-то используют аттэншн?
Обучают на примерах, но часть примеров размечены автоматически, трансфером с других задач.
источник