Size: a a a

Natural Language Processing

2020 July 15

I

I Апрельский... in Natural Language Processing
Den
пример с gpt-2 доказывает обратное
Кому доказывает? Тебе? Тогда зачем этот вопрос? Значит, ты считаешь, что возможно.
источник

D

Den in Natural Language Processing
I Апрельский
Кому доказывает? Тебе? Тогда зачем этот вопрос? Значит, ты считаешь, что возможно.
перейди сначала по ссылке, да почитай
источник

t

toriningen in Natural Language Processing
на колабе, раз речь о не датасаентистах, невозможно
источник

t

toriningen in Natural Language Processing
если есть много денег, можно накупить много вкусных серверов на амазоне, или вкусных коробочек типа DGX-2 или lambda hyperplane-16
источник

I

I Апрельский... in Natural Language Processing
Den
перейди сначала по ссылке, да почитай
Ты спросил мнение -- я его предложил. Хочешь переубедить меня? Это дело благородное. Но пока не получилось (
источник

D

Den in Natural Language Processing
toriningen
если есть много денег, можно накупить много вкусных серверов на амазоне, или вкусных коробочек типа DGX-2 или lambda hyperplane-16
откуда у не датасаентиста много денег? Да ещё и не у студента? Неее, я вам не aidungeon тут пилю с профессорской сиськой во рту.
источник

t

toriningen in Natural Language Processing
тогда просто нельзя, никак
источник

D

Den in Natural Language Processing
toriningen
тогда просто нельзя, никак
тогда вопрос вытекающий - каким образом допиливается GPT-2 до уровня GPT-3 с ликвидацией всего того тупняка что есть из коробки?
источник

A

Abi says no boys in Natural Language Processing
toriningen
ну, если без сарказма, то на колабе вы модель порядка размеров gpt3 даже не вычислите, не говоря об обучении

модель типа gpt2 xl вы на колабе сможете вычислить, но не сможете обучить
Сори, а вы не знаете, что использывали при создании реплики? В плане gpt-2 или gpt-3. Я пока что совсем нуб, заранее прошу прощения если какую то фигню несу
источник

I

I Апрельский... in Natural Language Processing
Это ещё не Big Science. Но стоит уже сотни тысяч долларов.
источник

t

toriningen in Natural Language Processing
Den
тогда вопрос вытекающий - каким образом допиливается GPT-2 до уровня GPT-3 с ликвидацией всего того тупняка что есть из коробки?
просто стакай больше слоев
источник

D

Den in Natural Language Processing
Abi says no boys
Сори, а вы не знаете, что использывали при создании реплики? В плане gpt-2 или gpt-3. Я пока что совсем нуб, заранее прошу прощения если какую то фигню несу
ссылка про gpt-2 сверху, использовали бумаги оригинальные
источник

t

toriningen in Natural Language Processing
Abi says no boys
Сори, а вы не знаете, что использывали при создании реплики? В плане gpt-2 или gpt-3. Я пока что совсем нуб, заранее прошу прощения если какую то фигню несу
архитектуру от gpt2 использовали. на момент той статьи gpt3 не было
источник

D

Den in Natural Language Processing
toriningen
просто стакай больше слоев
без понятия как, не дата саентист, да и гуглить почти без толку ибо область узковата
источник

I

I Апрельский... in Natural Language Processing
Abi says no boys
Сори, а вы не знаете, что использывали при создании реплики? В плане gpt-2 или gpt-3. Я пока что совсем нуб, заранее прошу прощения если какую то фигню несу
Кажется, что они одни из первых пробовают gpt-3 по подписке
источник

t

toriningen in Natural Language Processing
Den
без понятия как, не дата саентист, да и гуглить почти без толку ибо область узковата
>как

просто декодер на декодер херачишь, и так 96 раз
источник

A

Abi says no boys in Natural Language Processing
I Апрельский
Кажется, что они одни из первых пробовают gpt-3 по подписке
Понял, спасибо большое
источник

D

Den in Natural Language Processing
I Апрельский
Кажется, что они одни из первых пробовают gpt-3 по подписке
разумеется, подлизали
источник

D

Den in Natural Language Processing
toriningen
>как

просто декодер на декодер херачишь, и так 96 раз
есть пример с transformers?
источник

t

toriningen in Natural Language Processing
да, возьми реализацию gpt2 с huggingface и поменяй геометрию
источник