Size: a a a

Natural Language Processing

2021 December 14

SancheZz Мов in Natural Language Processing
Вроде можно
источник

IG

Ilya Gusev in Natural Language Processing
(а ещё там линала страниц на 50)
источник

ГZ

Гражданин Z in Natural Language Processing
а text - это что за задача именно?
источник

IG

Ilya Gusev in Natural Language Processing
Вся эта табличка - это lra бенчмарк, https://paperswithcode.com/dataset/lra
источник

IG

Ilya Gusev in Natural Language Processing
Конкретно Text - классификация и близость документов
источник

ГZ

Гражданин Z in Natural Language Processing
понятно, спасибо
источник

IG

Ilya Gusev in Natural Language Processing
Я вообще удивлён, что вокруг s4 так мало хайпа. С моей точки зрения это тупо убийца трансформеров, судя по циферкам
источник

ГZ

Гражданин Z in Natural Language Processing
эхх, просто лстмка какой то романтичной казалась с её идеей о долговременной памяти, а трансформеры какие бездушные
источник

ГZ

Гражданин Z in Natural Language Processing
А вы проверяли её на задачах по классификации текстов? Сравнивали с бёртом?
источник

IG

Ilya Gusev in Natural Language Processing
Нет, я о ней в прошлую среду узнал :) Но не верить результатам у меня оснований нет, да и код открыт
источник

ГZ

Гражданин Z in Natural Language Processing
а её так же, нужно сначала натренировать на гиганском корпусе, а потом фаин тюнить под конкретную задачу и корпус? Или сразу на конкретном корпусе учил?
Или в современном nlp теперь всё делается через трансфер лёрнинг?
источник

IG

Ilya Gusev in Natural Language Processing
А вот хз, насколько это для неё работает. Авторы точно без предобучения тестили
источник

IG

Ilya Gusev in Natural Language Processing
А вот и первые попытки воспроизвести, https://github.com/HazyResearch/state-spaces/issues/3
источник

ГZ

Гражданин Z in Natural Language Processing
будем наблюдать)
источник
2021 December 15

ZP

Z P in Natural Language Processing
Кто нибудь может дать статью по no reapet ngram size. Как он реализуется?
источник

V

Vic in Natural Language Processing
Есть вопрос по вашей модели Барт https://huggingface.co/IlyaGusev/mbart_ru_sum_gazeta
Учим ее но она падает с ошибкой. Используем либу happytransformer (это надстройка над Хагинфейс transformers), тот же код и датасет для обучения Сберовской русской ruT5 работает на обучение, а вот с Бартом падает.
Может подскажете в чем дело, вот полный трейс ошибки:
https://pastebin.com/6Zw1sCBS

Падение в этом месте:
--> 104             remove_columns=["input", "target"],

и итоговая ошибка
TypeError: int() argument must be a string, a bytes-like object or a number, not 'NoneType'
источник

IG

Ilya Gusev in Natural Language Processing
Ох, это как будто бы в последних версиях transformers появилось. Оно ещё до запуска модели падает, на этапе токенизации. Нужно при загрузке токенизатора указать src_lang="en_XX", tgt_lang="ru_RU". На обычный инференс с правильным токенизатором это не влияет.
источник

V

Vic in Natural Language Processing
Спасибо, попробуем.
Кажется вы предлагаете использовать не версию 4 трансформерс, а более раннюю? Мы просто так и делаем в других задачах, тк генератор в 2.8.0 версии почему-то лучше бывает
источник

IG

Ilya Gusev in Natural Language Processing
Да нет, я предлагаю явно в from_pretrained токенизатора языки указать. Либо уже просто скачать модель заново, я там конфиг уже поправил: https://huggingface.co/IlyaGusev/mbart_ru_sum_gazeta/commit/56aba7873fb373f9324f3e4c3880eccbf20c316d
источник

А

А in Natural Language Processing
Ребята, простите, если оффтоп. Сам новичок в теме. Нужен человек на небольшую задачу - составить список слов с ранжированием по частоте употребления. Подскажите, где можно поискать.
источник