классификация. Сейчас решаем её через tf-idf+лог регрессия, но решили попробовать лингвистические модели, в частности бёрт, который вроде как сейчас state-of-the-art, вот только cls эмбединг показывает результаты гораздо хуже, чем tf-idf+лог регрессия, даже если берт дополнительно подобучить на наших текстах.
"в свертки кормить не надо вектора. книжку щяс закину..."
Почему не надо? Я тож в книги прочитал такой подход, правда в другой) И попробовал это на эмбедингах из наташи(навек). Результат был конечно похуже, чем tf-idf+лог регрессия, но всё равно лучше, чем cls эмбединг. Поэтому и хочу попробовать так же запихнуть эмбединги берта отдельных токенов в свёртку