care1e55
Да, действительно. Но только ли поэтому? В абстрактной задаче где 1 токен - 1 слово seq2seq и crf будут показывать сопоставимые результаты?
Если обучающих данных мало, то seq2seq будет страшно глючить на такой задаче - например, иногда генерировать пустые последовательности или, наоборот, бесконечно повторять какой-нибудь один токен, или начнёт фантазировать и генерировать последовательность, не особо связанную со входной. А sequence labelling будет глючить поменьше, т.к. в худшем случае он несколько меток неверно поставит, а остальные нормально будут стоять. Как говорят учёные, у sequence labelling полезный inductive bias по сравнению с seq2seq.