Size: a a a

Natural Language Processing

2021 March 10

BS

Bogdan Salyp in Natural Language Processing
Проверял на суммаризации, что-то очень плохо вышло
Хм, поресерчу ещё, может я где-то ошибся
Спасибо
источник

t2

tonko 22 in Natural Language Processing
Bogdan Salyp
Проверял на суммаризации, что-то очень плохо вышло
Хм, поресерчу ещё, может я где-то ошибся
Спасибо
Пробовали крутить параметры при инференсе?
источник

BS

Bogdan Salyp in Natural Language Processing
Было не так много времени, я в huggingface pipeline без настроек взял
Просто на английском из коробки работало
Проверю ещё, когда буду дома, отпишусь)
источник

VR

Vladimir R in Natural Language Processing
Егорка
Прошу прощения: я ещё раз спрошу о том же.
Может быть, кто делал подобное, сейчас увидит мой вопрос :)
Это невозможно по причине теории информации, ты не сможешь извлечь новую информацию о том, какие ошибки одной модели нужно отсечь на основании только этих двух измерений, т.е. ты просто не создаешь новую информацию. Это хороший теоретический и достаточно очевидный в целом вопрос.
источник

VR

Vladimir R in Natural Language Processing
Bogdan Salyp
Ребят, кто-нибудь может пояснить, почему ещё нет t5 на русском? Для суммаризации хотя бы
Датасет С4 на русском есть, код для обучения прям по шагам описан
В чём подвох?
Ну если есть сотни тысяч на аренду железа, и сверхчистый датасет на терабайты текста, то собственно никаких проблем, но потребуется еще время и команда инженеров =)
источник

VR

Vladimir R in Natural Language Processing
Там основная технология у гугла - это производство и очистка датасета, у них хитрый алгоритм и множество подходов, про которые они не расскажут, ну и каждый раз датасет формировался итерационно, т.е. на предыдущем шаге получали модель и использовали ее для производства датасета для следующей итерации. Очень такой тяжелый ручной труд по доводке всего этого добра...
источник

PP

Parth Patel in Natural Language Processing
Can you all speak in English....I am not able to understand
источник

VR

Vladimir R in Natural Language Processing
Parth Patel
Can you all speak in English....I am not able to understand
источник

AK

Anna Kravchenko in Natural Language Processing
мы вот вас отлично понимаем...
источник

IN

Ilya Nikitin in Natural Language Processing
Parth Patel
Can you all speak in English....I am not able to understand
There's a chat for NLP in English https://t.me/nlp_eng
источник

Е

Егорка in Natural Language Processing
Vladimir R
Это невозможно по причине теории информации, ты не сможешь извлечь новую информацию о том, какие ошибки одной модели нужно отсечь на основании только этих двух измерений, т.е. ты просто не создаешь новую информацию. Это хороший теоретический и достаточно очевидный в целом вопрос.
Здесь я точно не соглашусь.
Если разные предсказатели обучены на разных наборах данных, то ( в определённом приближении)  ансамбль таких предсказателей будет частным случаем Blending'а.
Например, один классификатор хорошо находит одни типы организаций, другой — другие. Если объединим результаты, получим большую полноту.
Но это, конечно, в идеальных условиях. Как Вы верно заметили, непонятно как учитывать ошибки моделей. М.б., как мне предложили ранее здесь, брать три модели и ставить label, на который указывает большинство моделей. Или на основании результатов одиночного тестирования моделей построить методику, какой модели в какой ситуации отдавать предпочтение.
источник

VR

Vladimir R in Natural Language Processing
Егорка
Здесь я точно не соглашусь.
Если разные предсказатели обучены на разных наборах данных, то ( в определённом приближении)  ансамбль таких предсказателей будет частным случаем Blending'а.
Например, один классификатор хорошо находит одни типы организаций, другой — другие. Если объединим результаты, получим большую полноту.
Но это, конечно, в идеальных условиях. Как Вы верно заметили, непонятно как учитывать ошибки моделей. М.б., как мне предложили ранее здесь, брать три модели и ставить label, на который указывает большинство моделей. Или на основании результатов одиночного тестирования моделей построить методику, какой модели в какой ситуации отдавать предпочтение.
Если объединим результаты, получим большую полноту.

Если ты докажешь это утверждение, то получишь типа нобелевской какой-нибудь, потому что сейчас принято считать, что это не так )
источник

VR

Vladimir R in Natural Language Processing
Просто это все достаточно очевидно, я этими вопросами задавался через 2 недели после того, как начал изучать DL, я могу сказать, что ты на правильном пути.... через 2-3 года обязательно докопаешься до сути...
источник

FF

Futorio Franklin in Natural Language Processing
Почему бы просто на практике не проверить
источник

FF

Futorio Franklin in Natural Language Processing
Если заработает, то какая в принципе разница
источник

VR

Vladimir R in Natural Language Processing
Futorio Franklin
Почему бы просто на практике не проверить
Ну получишь отрицательный результат, который ничего не доказывает — не отвечает на вопрос можно так делать или нет
источник

FF

Futorio Franklin in Natural Language Processing
Vladimir R
Ну получишь отрицательный результат, который ничего не доказывает — не отвечает на вопрос можно так делать или нет
Врядли что-то кому-то доказать входит в поставленную задачу
источник

VR

Vladimir R in Natural Language Processing
Мы же про математику вроде бы говорим
источник

VR

Vladimir R in Natural Language Processing
В математике есть доказательства )
источник

Е

Егорка in Natural Language Processing
Vladimir R
Если объединим результаты, получим большую полноту.

Если ты докажешь это утверждение, то получишь типа нобелевской какой-нибудь, потому что сейчас принято считать, что это не так )
Это не теорема, а прямое следствие из условий, которые я обозначил. Если имеются три модели, которые находят только черные, белые и красные шары соответственно, то вместе они они найдут все шары. Я обозначил, что предположил идеальные условия.
источник