Size: a a a

Natural Language Processing

2021 October 19

VS

Vyacheslav Sherkunov in Natural Language Processing
Можно здесь посмотреть https://rusvectores.org/ru/models/
источник

МВ

Марк Верхотуров... in Natural Language Processing
Спасибо!
источник

AM

Anastasiia Murashova in Natural Language Processing
Привет! А тут можно делиться ссылками на буткемпы и т.п.?
источник

d

daniil in Natural Language Processing
Кросс-энтропия?
UPD: Да, кросс-энтропия.
источник

TM

Toemik Mnemonic in Natural Language Processing
Спасибо ! Какой модуль смотреть ?
источник

d

daniil in Natural Language Processing
источник

TM

Toemik Mnemonic in Natural Language Processing
Ух жесть, получается для задач классификации нельзя будет без колхоза посчитать MSE или MAE.. спасибо
источник

d

daniil in Natural Language Processing
Зачем вам MSE или MAE?
источник

d

daniil in Natural Language Processing
Это не задача регрессии
источник

IG

Ilya Gusev in Natural Language Processing
При num_labels=1 там как раз MSE, если что. Иначе кросс-энтропия
источник

IG

Ilya Gusev in Natural Language Processing
источник

IG

Ilya Gusev in Natural Language Processing
плюс теперь добавился "problem_type", которым можно регулировать лосс
источник

TM

Toemik Mnemonic in Natural Language Processing
UPD почему вы  не назвали MAE? разве она не будет устойчивее к выбросам?
источник

IG

Ilya Gusev in Natural Language Processing
а почему это вопрос ко мне? :D
issue на гитхабе можно создать, если что
с точки зрения здравого смысла - MSE как раз больше штрафует за ошибки на выбросах и скорее всего чуть более устойчива в обучении
источник

TM

Toemik Mnemonic in Natural Language Processing
Для меня вообще странно что они не сделали loss опциональным . Но я в мире DL совсем недавно так что видимо много чему придётся удивиться ) а к вам вопрос был уже вне либы и кода, а теоретический ))
источник

IG

Ilya Gusev in Natural Language Processing
Ну ограничение по лоссу существует только в рамках AutoModelForSequenceClassification, можно у них взять просто тушку и достроить любую свою голову. Исторически сложилось, что transformers - это не про обучение моделей, а про применение готовых. У них Trainer-то совсем недавно появился.
источник

DD

David Dale in Natural Language Processing
А этот loss и есть опциональный: если ты не передаёшь в модель labels, то он не вычисляется, и дальше ты его можешь вычислить как тебе угодно на основе logits, переданных моделью.
источник

TM

Toemik Mnemonic in Natural Language Processing
Да , пожалуй
источник

TM

Toemik Mnemonic in Natural Language Processing
Без лейблс? В таком случае он выполняет кластеризацию ?
источник

DD

David Dale in Natural Language Processing
Нет, вообще ничего не выполняет. В этом случае модель просто выдаёт тебе чиселки, а ты уже сам решаешь, какой смысл им придать и как их оптимизировать.
источник