Size: a a a

Natural Language Processing

2020 July 15

D

Den in Natural Language Processing
toriningen
было бы у меня столько денег, сколько у них, наверное, я бы тоже gpt3 от скуки тренил
наверное пропустил тезис для не дата саентистов. Из доступных платформ есть только colab.
источник

t

toriningen in Natural Language Processing
на колабе даже инференс не влезет
источник

D

Den in Natural Language Processing
но засунуть же можно
источник

t

toriningen in Natural Language Processing
неа, не выйдет. я ж говорю, оно в память не влезет туда, даже если предположить, что у вас каким-то образом gpt3 175b оказался в руках
источник

t

toriningen in Natural Language Processing
даже один батч инференса не прогнать
источник

D

Den in Natural Language Processing
175 - много
источник

t

toriningen in Natural Language Processing
не говоря уже об обучении
источник

FF

Futorio Franklin in Natural Language Processing
Den
но засунуть же можно
Как минимум потому что модели нет в открытом доступе
источник

t

toriningen in Natural Language Processing
и не будет, потому что они продают доступ к нему по подписке
источник

D

Den in Natural Language Processing
Futorio Franklin
Как минимум потому что модели нет в открытом доступе
учитывая их жадные жёпы - и не будет
источник

t

toriningen in Natural Language Processing
Den
учитывая их жадные жёпы - и не будет
это все ради обеспечения безопасности мира, как вы не понимаете
источник

t

toriningen in Natural Language Processing
ведь враги могут использовать gpt3 для написания фейковых статей!
источник

t

toriningen in Natural Language Processing
(ну или заплатите нам денег и пишите на здоровье)
источник

D

Den in Natural Language Processing
не лучший момент для сарказма
источник

D

Den in Natural Language Processing
так вот, какая тут в принципе золотая середина?
источник

t

toriningen in Natural Language Processing
ну, если без сарказма, то на колабе вы модель порядка размеров gpt3 даже не вычислите, не говоря об обучении

модель типа gpt2 xl вы на колабе сможете вычислить, но не сможете обучить
источник

D

Den in Natural Language Processing
при которой модель и не тупит и не деградирует (не стагнирует)
источник

D

Den in Natural Language Processing
toriningen
ну, если без сарказма, то на колабе вы модель порядка размеров gpt3 даже не вычислите, не говоря об обучении

модель типа gpt2 xl вы на колабе сможете вычислить, но не сможете обучить
вот gpt2 в сравнении тупит ещё как, да ещё и плохо справляется с запоминанием, контекстом и описыванием деталей
источник

I

I Апрельский... in Natural Language Processing
Den
Доброе утро, возник такой вопрос:
насколько возможно вообще в принципе на сегодняшний день сделать реплику GPT-3 (для не дата саентистов)?
Вот на примере второго https://blog.usejournal.com/opengpt-2-we-replicated-gpt-2-because-you-can-too-45e34e6d36dc
Насколько возможно? Если коротко, то невозможно
источник

D

Den in Natural Language Processing
I Апрельский
Насколько возможно? Если коротко, то невозможно
пример с gpt-2 доказывает обратное
источник