Size: a a a

Natural Language Processing

2021 October 24

d

daniil in Natural Language Processing
А что вы собираетесь классифицировать?
источник

A

Alex in Natural Language Processing
Классификацию я как пример привел.
Про генерацию больше вопрос. Вот пример,
Одна и та же затравка: Что такое машинное обучение?
Два выхода модели: один бредовый (вообще непонятно о чем), второй вполне себе раскрывает тему вопроса. Хотелось бы показать только вариант 2, т.к. он по качеству выше (моя оценка).

Т.е. у меня на выходе есть набор слов с вероятностью их генерации. Можно ли какую ту среднюю метрику вероятности применять как качество текста?
источник

VF

Vadim Fomin in Natural Language Processing
А может, вы говорите о перплексии?
источник

VF

Vadim Fomin in Natural Language Processing
Типа у вас есть стратегия декодирования, вы ею достаёте какой-то текст из модели, потом считаете перплексию и смотрите, насколько с т. з. самой модели этот текст адекватный
источник

A

Andrey in Natural Language Processing
так может каким отдельным бертом замерить?
источник

d

daniil in Natural Language Processing
Если бы существовал какой-то оракул, который бы на каждый сгенерированный текст говорил бы, что бред, а что нет, то все его бы и использовали. Но его не существует. Что же касается средней вероятности, то у вас при генерации модель и так генерирует слово, имеющее максимальную вероятность, если я не ошибаюсь.
источник

VF

Vadim Fomin in Natural Language Processing
Если я правильно понял вопрос. Мне показалось, что вы хотите не сравниваьт с экспертным ответом, а просто смотреть, самой модели её выход нравится или нет
источник

A

Alex in Natural Language Processing
С перплексией непонятно. Ведь нету в сравнении с чем ее считать. Это как бы выход модели на реальном запросе пользователя.
источник

A

Alex in Natural Language Processing
Т.е. человек спросил, ему генерирует текст в трёх вариантах разный. Хотелось бы показать 1 самый лучший по качеству (смысл, читабельность, уверенность с точки зрения модели и т.п.)
источник

VF

Vadim Fomin in Natural Language Processing
Вроде как перплексия — это не расстояние сгенерированного текста до "правильного текста", там правильный текст не нужен, просто измеряете, хорошая ли верояттность у текста, которую достала ваша стратегия декодирования
источник

VF

Vadim Fomin in Natural Language Processing
Это про уверенность с точки зрения модели
источник

A

Alex in Natural Language Processing
Т.е. экспертного ответа нет
источник

VF

Vadim Fomin in Natural Language Processing
Ну он типа не нужен для перплексии, может конечно я туплю
источник

VF

Vadim Fomin in Natural Language Processing
А ещё можно и другие языковые модели припрячь и тоже считать перплексию
источник

VF

Vadim Fomin in Natural Language Processing
А ещё разметить совсем немного данных и всё-ттатки обучиьт классификаторы конкреттным задачам типа читабельности итп
источник

A

Alex in Natural Language Processing
Понял. Да. Возможно перплексия поможет в этой задаче. Спасибо
источник

AB

Arcady Balandin in Natural Language Processing
Тестовая выборка вроде и решает. Или я не понял.
источник

AB

Arcady Balandin in Natural Language Processing
Или модель не выдает уровень уверенности?
источник

DD

David Dale in Natural Language Processing
Самое годное решение - разметить вручную пару сотен текстов по степени качества, и на них обучить модель эту самую степень качества предсказывать. И ею скорить.
Бонус: в процессе разметки вы пройдёте большой путь в понимании того, чего же вам от текстов на самом деле хочется.
источник
2021 October 25

SP

Sebastian Pereira in Natural Language Processing
Друзья, может кто-то знает - а у кого у нас лучший английский TTS сейчас для мужского голоса? Я нашёл кучу женских моделей с волшебным качеством, а мужеские обучаются плохо и качество ни к черту.
источник