Size: a a a

Natural Language Processing

2021 October 09

M

Mary in Natural Language Processing
Мы делали как в оригинальной статье Sentence BERT https://arxiv.org/pdf/1908.10084.pdf
То есть для тюнинга на SNLI тюнили сиамского БЕРТа и обучали дополнительно сберху классификатор. К сожалению, обученный классификатор сам отбрасывался (для получения эмбеддингов предложений он не нужен)
источник

SancheZz Мов in Natural Language Processing
Мы это сделали раньше)
источник

SancheZz Мов in Natural Language Processing
В феврале 2020)
источник

SancheZz Мов in Natural Language Processing
Именно так
источник

SancheZz Мов in Natural Language Processing
Напрямую нет, тк для нужд схлопнули нейтраль и контру
источник

SancheZz Мов in Natural Language Processing
Как негатив
источник

M

Mary in Natural Language Processing
Если мериться, то в deeppavlov моделька выложена весной 2019 =)
источник

SancheZz Мов in Natural Language Processing
Хыхы)
источник

SancheZz Мов in Natural Language Processing
Продано)
источник

AM

Alex Mak in Natural Language Processing
А раз уж пошла такая беседа, может кто-то может поделиться тетрадкой с дообучением nli модели? ;) Для русского? Или мультиязычной хотя бы?
источник

SancheZz Мов in Natural Language Processing
Зайди в нашу статью
источник

SancheZz Мов in Natural Language Processing
Там мой код
источник

SancheZz Мов in Natural Language Processing
источник

SancheZz Мов in Natural Language Processing
Сюда над подставить ток нужный берт и датку
источник

SancheZz Мов in Natural Language Processing
Ну и в батчгене не склеивать два класса нейтраль и контру
источник

SancheZz Мов in Natural Language Processing
Ну и моделька хорошо потом переливается в торч
источник

DD

David Dale in Natural Language Processing
Я на днях выложу и тетрадку, и лонгрид об этом)
источник

SS

Sergey Shulga in Natural Language Processing
источник

SancheZz Мов in Natural Language Processing
Больше сбертов богу сбертов
источник

SancheZz Мов in Natural Language Processing
Еще небось задистиллишь?)
источник