GPT в чистом виде не умеет в долговременную память, там тупо последние k токенов текста в модель подаются и все. Для задачи language modelling этого достаточно, если k большое достаточно. Если тебе нужны longer range dependencies, GPT не подойдет, нужно гуглить другие подходы.
while True:
raw_text = input("Model prompt >>> ")
while not raw_text:
print('Prompt should not be empty!')
raw_text = input("Model prompt >>> ")
context_tokens = enc.encode(raw_text)
generated = 0
for _ in range(nsamples // batch_size):
out =
sess.run(output, feed_dict={
context: [context_tokens for _ in range(batch_size)]
})[:, len(context_tokens):]
в чем проблема подать больше k? или ты про обучение?