Size: a a a

Natural Language Processing

2021 December 10

ММ

Михаил Митрофанов... in Natural Language Processing
Но в meta.json всё равно есть PER, ORG
источник

ММ

Михаил Митрофанов... in Natural Language Processing
Хотя в конфиге ner нет pipeline = ["tok2vec","morphologizer","parser","senter","attribute_ruler","lemmatizer»]]
источник

🐙

🐙 in Natural Language Processing
На мету не обращайте внимания, to_disc не создаёт новый language package, чтоб его пересоздать нужно новый пайплайн инициализировать.
источник

ММ

Михаил Митрофанов... in Natural Language Processing
Понял, спасибо, буду разбираться
источник

И

Илья in Natural Language Processing
Всем привет! Не подскажите, есть методы у Наташи разметить тексты объектами из словаря? Есть словарик воинских званий, хотелось бы определить их позиции в текстах... Я новичок в данной теме, будет ли правильным подход получения лемм у токенов текста и элементов словаря и сравнивания на соответствие?
источник

KS

Konstantin Smith in Natural Language Processing
В Pullenti есть - использовать словарь TerminCollection, и применять к каждому токену текста в цикле.
источник

И

Илья in Natural Language Processing
А как насчет yargy? Там вроде тоже можно или я не прав? Пишу тест сейчас...
источник

a

alisa in Natural Language Processing
🔥 Чемпионат Sibur Challenge 2021 заканчивается, а подарки-то - остались!

✅ Заполняй анкету обратной связи о чемпионате и выигрывай рюкзак!
✅ Продолжай решать задачу до 25 декабря и выигрывай дополнительные призы!
✅ Сделай репост этой записи и получи возможность выиграть рюкзак.

Детали по дополнительным призам - в чате соревнования https://t.me/siburchallenge

Поздно увидел? Пропустил этот год? Не страшно.
Заходи на https://ai-community.com/sibur-challenge-2021. Оставь email. И первым получи приглашение на Sibur Challenge 2022 - ежегодный онлайн-чемпионат по анализу данных!

И, конечно, если ты свободен в эту субботу, мы приглашаем тебя 11 декабря в 14:00 на онлайн-финал. В программе: финальная презентация лучших решений и финальный розыгрыш дополнительных призов!

Увидимся?
источник
2021 December 11

Е

Егорка in Natural Language Processing
Не подскажете, есть ли у texterra приемущества в задаче извлечения именованных сущностей в сравнении с аналогами (Slovnet, DeepPavlov, Pullenti)? Или м.б. отличительная положительная черта с точки зрения NLP в целом?
источник

B

Banof in Natural Language Processing
🔫 Mount Jason кикнут — вернуть этого пользователя можно только разбаном в настройках чата.

Проголосовавшие за кик:
@wadimiusz, @oleg_mosalov, @kasha131, @mr_B1onde, @steysie
При поддержке Золота Бородача
источник
2021 December 12

VM

Victor Maslov in Natural Language Processing
нашел наконец
16 лет логов канала #linux
источник

A

Andrey in Natural Language Processing
как пропатчить kde2 под freebsd?)
источник

VM

Victor Maslov in Natural Language Processing
то был #anime
источник

SL

Shelest Listjev in Natural Language Processing
Всем привет!
Прошу поделиться источниками по практическому освоению так называемых prompting methods. Например, такие подходы, как p-tuning, prefix tuning.
В теории понятно, как работает, но вот даже если у статьи есть соответствующий код, то он оч большой и без комментариев совсем - трудно разобраться, что там происходит.

Может быть, кто то пытался повторить что-то похожее на любых тасках и с любыми моделями, и есть гиты? Или делал заметки по коду? Буду рад абсолютно любому)

Заранее спасибо!
источник

A

Andrey in Natural Language Processing
http://docs.deeppavlov.ai/en/master/features/models/ner.html

в проде модель zero shot уже несколько лет... своим "ковровым покрытием" вполне устраивает
источник
2021 December 13

VM

Victor Maslov in Natural Language Processing
туго конечно с русскими логами по сравнению с английскими
ошибки повсюду
"тыб еще палочки барабанные взял"
[0, "тыб", "тыб", 4, "ADVMOD", "ADV", {"proper"=>"NOT_PROPER"}]
[7, "еще", "еще", 4, "ADVMOD", "ADV", {"proper"=>"NOT_PROPER"}]

гугл тупо не понял, что такое "тыб"
источник

ИМ

Иван Михеев... in Natural Language Processing
Всем день добрый, подскажите, кто-нибудь работал с бертовской моделью диппавлова? Обучил их же модель ner_rus на своих тегах, меняя параметры в их конфиге, сейчас к тем же параметрам отсылаюсь на том же количестве тегов на бертовской модели , пишет ошибку о несовмешение размерности слоев. Какая переменная в конфиге ner_rus_bert_torch.json  отвечает за размерность словаря тегов ?
источник

SL

Shelest Listjev in Natural Language Processing
n_tags вроде
источник

MB

Mark Baushenko in Natural Language Processing
Добрый день, тюню Т5 на текст2текст, вроде идея понятна, но вот практическая реализация не очень. Не могу понять какой лр, сколько эпох и тд нужно указывать. И как это узнать не совсем понятно.
Гуглил, но ничего толкового не нашел.
источник

ИМ

Иван Михеев... in Natural Language Processing
в ner_rus так же называется, отсылаюсь с ней же, но не принимается.. ладно буду думать, спасибо
источник