Size: a a a

Natural Language Processing

2021 October 06

SM

Sergei Markoff in Natural Language Processing
Тогда уж и Питтса с Мак-Каллоком, и Шеннона))
источник

SancheZz Мов in Natural Language Processing
Но я жду прорыва в AGI как смена парадигмы и подхода к вычислениям и моделированию , от слабых иммитаций к, возможно, алгоритмам эволюционным или комбинаций
источник

SancheZz Мов in Natural Language Processing
Да хорошо бы
источник

SM

Sergei Markoff in Natural Language Processing
Золотые слова
источник

SancheZz Мов in Natural Language Processing
Надеюсь этот институт будет таким в тч в своих работах
источник

Е

Егорка in Natural Language Processing
Астрологи объявили неделю сильного интеллекта. Количество новостей по сильный интеллект увеличилось вдвое )
https://www.cnews.ru/news/line/2021-10-05_v_itmo_sozdadut_novyj_rossijskij
источник

AE

Anton Eryomin in Natural Language Processing
По всей видимости это лучше продаётся наверху 🙂 вот и будут теперь называть все сильным интеллектом
источник

SancheZz Мов in Natural Language Processing
Сечешь
источник

SancheZz Мов in Natural Language Processing
источник

YS

Yurii Script in Natural Language Processing
Добрый день, подскажите пожалуйста по задаче. Необходимо сделать перевод денежных сумм из строкового значения в цифру.
Пример: "полторы тысячи рублей'' -> 1500
Нашёл готовый инструмент в Natasha, moneyextractor, но он цепляет только цифру + валюту, например: ''1500 рублей'' -> 1500
Подскажите, можно ли дописать свои правила в yargy парсере для такой задачи или уже есть готовый инструмент для неё? Я искал в похожих проектах на гите в разделе examples у Natasha, но не смог найти.
источник

DY

Dmitriy Yermakov in Natural Language Processing
https://github.com/SergeyShk/Word-to-Number-Russian
но оно для старой версии Natasha
источник

KS

Konstantin Smith in Natural Language Processing
Деньги неплохо выделяет pullenti, причём разные валюты
источник

S

Sergey in Natural Language Processing
Если правильно понял, то имеется в виду задача ITN (inverse text normalisation). Есть реализация от nVidia:
https://github.com/NVIDIA/NeMo/tree/main/nemo_text_processing/inverse_text_normalization
Вроде есть поддержка русского. В том числе и для валют. Но сам не пробовал.
источник

B

Bruddah in Natural Language Processing
Ребят, у меня есть куча юридических документов и есть список названий этих документов. Мне нужно в тексте этих документов находить подстроки, похожие на названия документов (суть в том, что могут появляться новые документы, которых нет в списке названий, или названия могут склоняться/быть искаженными из-за опечаток или сокращений).

Есть ли какой-то способ реализовать такой поиск? Думал над расстоянием левенштейна, но оно очень затратно по вычислениям. Есть ли разумные альтернативы? Может кто-то сталкивался с похожей проблемой?
источник

A

Andrey in Natural Language Processing
если левннштейн затратен, то остальное еще затратнее... и вряд ли лучше будет
источник

AW

Alex Wortega in Natural Language Processing
Можно конечно подумать про эмбединги из Берта, но это  всегда тяжело вычислительно, но может давать неплохие результаты
источник

MA

Muhammed Alimbetov in Natural Language Processing
Если ищите что-то типа левенштейна, можете посмотреть в сторону beam-search + neural rescoring. https://docs.nvidia.com/deeplearning/nemo/user-guide/docs/en/stable/asr/asr_language_modeling.html#train-n-gram-lm
источник

MA

Muhammed Alimbetov in Natural Language Processing
Насчёт скорости, не уверен, надо протестить
источник

Р

Родион in Natural Language Processing
Всем привет! Может быть тут есть те, кто хорошо помнит / разбирается в теории вероятность?

Есть две модели, обе определяют принадлежность текста к определенной категории. У одной вероятность ошибки 10%. У другой 15%. Есть ли способ рассчитать вероятность совершения ошибки при использовании двух моделей одновременно? Или это будет просто 0.1 * 0.15 = 0.015 (1,5%)?
источник

OM

Orzhan Mikhail in Natural Language Processing
Недостаточно данных, потому что случайные величины не факт, что независимые
источник