Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2020 July 24

D

Den in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
я не теоретик и знакомых профессоров не имею
источник

D

Den in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Cookie Thief
блять ну нет такого токенайзера, ру гпт обучена с помощью yttm, потому что так решил автор. И никто тебе за бесплатно подгонять его под твои нужды не будет
ну класс, чего уж, чекпоинтов, наверное, тоже нет
источник

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
причем тут чекпоинты вообще
источник

D

Den in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
а как я иначе должен исправить это досадное недоразумение?
источник

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ну берешь токенайзер от ру гпт, вытаскиваешь словарь и подгоняешь под формат токенайзера из трансформерс. Точнее ответить не могу, потому что сам этого не делал. На вскидку, не совсем очевидно как генерить merges.txt, но думаю можно разобраться, если воспользоваться методом пристального взгляда
источник

D

Den in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ты подразумеваешь что я понимаю как это делать, пожалуйста объясни это так, будто я впервые открыл colab.
источник

D

Den in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
источник

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ну посмотри для начала что такое yttm, как там хранится словарь и как его оттуда вытащить, потом посмотри в каком формате слварь хранится в токенайзере гпт из трансформерс и сопоставь. Как минимум сорцы всего открыты и лежат на гитхабе, словари тоже, тут не нужно быть семь пядей во лбу датасаентистом чтобы осознать, как всё это работает и что куда нужно передавать
источник

D

Den in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ещё помимо этого мне надо подкрутить количество слоёв чтобы пододвинуть её поближе к уровню gpt-3
источник

EZ

Evgenii Zheltonozhsk... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Den
ещё помимо этого мне надо подкрутить количество слоёв чтобы пододвинуть её поближе к уровню gpt-3
Кек
источник

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
земля пухом, чо
источник

D

Den in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
классное объяснение этого момента, это вызвало у меня внезапное озарение (нет)
источник

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ну ты можешь открыть статью и посмотреть, сколько параметров в разных версиях гпт-3, какой там размер контекста используется и на каком кол-ве данных модели учились
источник

D

Den in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
источник

D

Den in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
мне бы где-то до уровня между XL и 13Б подкрутить
источник

D

Den in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
тобишь нащупать "золотую середину", при которой модель и учится нормально и не деградирует
источник

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
у тебя есть железо чтобы учить и инферить модель с 13В параметров?
источник

D

Den in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
у меня есть colab, всё, никаких сторонних серверов и тесл
источник

D

Den in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
поэтому и настаиваю на "золотой середине" (ну ещё и из-за размера на диске)
источник

EZ

Evgenii Zheltonozhsk... in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Какой же ор
источник