Size: a a a

Natural Language Processing

2019 December 25

D

Den in Natural Language Processing
сначала скармливается вводный текст от пользователя, это запоминает модель и пляшет от него
источник

D

Den in Natural Language Processing
это типо долговременная память
источник

D

Den in Natural Language Processing
а в кратковременной лог от пользователя и модели
источник

AS

Alex Surname in Natural Language Processing
что такое лог от пользователя?
источник

D

Den in Natural Language Processing
> действие
отклик
источник

D

Den in Natural Language Processing
действие от пользователя
источник

D

Den in Natural Language Processing
отклик от модели
источник

AS

Alex Surname in Natural Language Processing
ты празднуешь рождество?
источник

D

Den in Natural Language Processing
не католик
источник

AS

Alex Surname in Natural Language Processing
это вопрос выбора церковью календаря, а не конфесии
источник

AS

Alex Surname in Natural Language Processing
в Румынии православные празднуют сегодня например
источник

D

Den in Natural Language Processing
да и куда мне вот с таким-то aidungeon на минималках
источник

D

Den in Natural Language Processing
так про память понятно?
источник

D(

David (ddale) Dale in Natural Language Processing
Den
отклик от модели
GPT в чистом виде не умеет в долговременную память, там тупо последние k  токенов текста в модель подаются и все. Для задачи language modelling  этого достаточно, если k  большое достаточно. Если тебе нужны longer range dependencies, GPT  не подойдет, нужно гуглить другие подходы.
источник

D(

David (ddale) Dale in Natural Language Processing
Хотя в качестве костыля можно предыдущий большой текст через суммаризатор какой-то прогонять,  и в gpt  это подавать.
источник

AS

Alex Surname in Natural Language Processing
David (ddale) Dale
GPT в чистом виде не умеет в долговременную память, там тупо последние k  токенов текста в модель подаются и все. Для задачи language modelling  этого достаточно, если k  большое достаточно. Если тебе нужны longer range dependencies, GPT  не подойдет, нужно гуглить другие подходы.
while True:
           raw_text = input("Model prompt >>> ")
           while not raw_text:
               print('Prompt should not be empty!')
               raw_text = input("Model prompt >>> ")
           context_tokens = enc.encode(raw_text)
           generated = 0
           for _ in range(nsamples // batch_size):
               out = sess.run(output, feed_dict={
                   context: [context_tokens for _ in range(batch_size)]
               })[:, len(context_tokens):]

в чем проблема подать больше k? или ты про обучение?
источник

D(

David (ddale) Dale in Natural Language Processing
Alex Surname
while True:
           raw_text = input("Model prompt >>> ")
           while not raw_text:
               print('Prompt should not be empty!')
               raw_text = input("Model prompt >>> ")
           context_tokens = enc.encode(raw_text)
           generated = 0
           for _ in range(nsamples // batch_size):
               out = sess.run(output, feed_dict={
                   context: [context_tokens for _ in range(batch_size)]
               })[:, len(context_tokens):]

в чем проблема подать больше k? или ты про обучение?
Если я правильно помню, ты не можешь подать на применении большее k чем было на обучении, т.к. для дальних токенов position embeddings не выучены.
источник

AS

Alex Surname in Natural Language Processing
а они разве не считаются просто? там есть длина окна, для модели 117M она равна 1024 токенам
источник

D

Den in Natural Language Processing
если опять надо менять модель то я хз
источник

D

Den in Natural Language Processing
надо как-то примотать возможность долговременной памяти
источник