Size: a a a

Natural Language Processing

2020 July 15

t

toriningen in Natural Language Processing
спасибо за совет, я сконвертировал все свои модели в формат ipynb, стали занимать считанные килобайты.
источник

D

Den in Natural Language Processing
toriningen
спасибо за совет, я сконвертировал все свои модели в формат ipynb, стали занимать считанные килобайты.
🙄 молодец, теперь будешь тыкать сарказмом до вечера?
источник

t

toriningen in Natural Language Processing
почему только до вечера? 🙂
источник

D

Den in Natural Language Processing
не суть, тут акцент на том что я использую предобученный gpt-2 xl
источник

D

Den in Natural Language Processing
Den
вот gpt2 в сравнении тупит ещё как, да ещё и плохо справляется с запоминанием, контекстом и описыванием деталей
про "тупит"
источник

D

Den in Natural Language Processing
если конкретнее - выдаёт несвязный бред и повторяется даже с правильной температурой
источник

MT

Mikhail Tikhomirov in Natural Language Processing
gpt2 просто языковая модель, а не генератор текстов, тем более со смыслом.
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Не стоит ждать от нее ничего особенного
источник

MT

Mikhail Tikhomirov in Natural Language Processing
Качество языковой модели зависит от размера модели и количества данных, которые туда скормлены. Но чтобы сделать что-то что более менее "разумно" отвечает требования по генерации, надо потратить много денег
источник

MT

Mikhail Tikhomirov in Natural Language Processing
"правильной" температуры тоже нет.
Вообще рекомендую использовать sample_sequence из https://github.com/mgrankin/ru_transformers/blob/master/run_generation.py
И поиграться с параметрами top_k и top_p
источник

MT

Mikhail Tikhomirov in Natural Language Processing
это комбинация top k фильтрации и "nuclear sampling", если я правильно помню как в оригинальной статье назвали подход
источник

MT

Mikhail Tikhomirov in Natural Language Processing
З.Ы. весь тред не читал, в нем слишком много негатива, поэтому мои ответы уже могут быть не актуальны, да
источник

I

I Апрельский... in Natural Language Processing
Mikhail Tikhomirov
З.Ы. весь тред не читал, в нем слишком много негатива, поэтому мои ответы уже могут быть не актуальны, да
Как думаешь, можно было бы уменьшить негатив?)
Я без шуток) Культура общения -- тема моих хоть и досужих, но размышлений.
источник

MT

Mikhail Tikhomirov in Natural Language Processing
I Апрельский
Как думаешь, можно было бы уменьшить негатив?)
Я без шуток) Культура общения -- тема моих хоть и досужих, но размышлений.
Сложный вопрос, уменьшить наверное можно, если не агриться, когда человек не прав (даже на уровне культуры общения), и понимать, что человек может ошибаться и заблуждаться и это нормально, все мы можем. Но это все философия :)
источник

М

Марк in Natural Language Processing
I Апрельский
Как думаешь, можно было бы уменьшить негатив?)
Я без шуток) Культура общения -- тема моих хоть и досужих, но размышлений.
Активно участвовать в тредах с биморфом. 😄
Доводя свою выдержку до абсолюта.
источник

D

Den in Natural Language Processing
Mikhail Tikhomirov
"правильной" температуры тоже нет.
Вообще рекомендую использовать sample_sequence из https://github.com/mgrankin/ru_transformers/blob/master/run_generation.py
И поиграться с параметрами top_k и top_p
источник

D

Den in Natural Language Processing
и да, вообще-то есть - 0.6
источник

D

Den in Natural Language Processing
Mikhail Tikhomirov
Качество языковой модели зависит от размера модели и количества данных, которые туда скормлены. Но чтобы сделать что-то что более менее "разумно" отвечает требования по генерации, надо потратить много денег
https://twitter.com/nickwalton00/status/1283143210999484416
тут вот я только могу сюда пальцем показать и сказать что каким-то непонятным образом у них получилось
источник

D

Den in Natural Language Processing
но справедливости ради база на gpt-3
источник

MT

Mikhail Tikhomirov in Natural Language Processing
В разных статьях можно встретить разные мнения, потому что задача оценки в данном случае сложна. По моему опыту, это метод хорошо достаточно работает, редко повторяется и создает достаточно разнообразные тексты.
источник