Size: a a a

ML Boot Camp Official

2020 November 27

АС

Андрей S[A]M Сергеев... in ML Boot Camp Official
SancheZz Мов
Гпт должен быть ок, ток варить над уметь
И как бы вы кормили бы ему всё?
источник

SancheZz Мов in ML Boot Camp Official
Я не мастер гпт:(
источник

SancheZz Мов in ML Boot Camp Official
Сорян
источник

SancheZz Мов in ML Boot Camp Official
Есть статья жеж
источник

АС

Андрей S[A]M Сергеев... in ML Boot Camp Official
Хммм, буду благодарен если оставить ссылочку, если это не та самая от сбера
источник

SancheZz Мов in ML Boot Camp Official
Андрей S[A]M Сергеев
Хммм, буду благодарен если оставить ссылочку, если это не та самая от сбера
От сбера
источник

SancheZz Мов in ML Boot Camp Official
Я свежего боле не помню
источник

АС

Андрей S[A]M Сергеев... in ML Boot Camp Official
Ну да, они как третью гпт выкатили, сразу статью и в aij  задание на использование её
источник

GE

Gleb Erofeev in ML Boot Camp Official
Андрей S[A]M Сергеев
Ну да, они как третью гпт выкатили, сразу статью и в aij  задание на использование её
А что за статья?
источник

IG

Ivan Glebov in ML Boot Camp Official
Ну там как учить gpt имеет значения, может спец токенами оборачивать текст, и текст вопроса
источник

IG

Ivan Glebov in ML Boot Camp Official
А надо именно правильный ответ или нет?
источник

АС

Андрей S[A]M Сергеев... in ML Boot Camp Official
Ivan Glebov
А надо именно правильный ответ или нет?
Да
источник

IG

Ivan Glebov in ML Boot Camp Official
А если сделать какую нить сиамскую/триамскую сеть, тоесть три условных берта, на вход одному текст, второму вопрос, третьему ответ, выходы всех конкатенируются, и преобразовываются в вероятность того, что ответ верный
источник

IG

Ivan Glebov in ML Boot Camp Official
И всё учить на парах текст/ правильный ответ, текст/неправильный ответ
источник

АС

Андрей S[A]M Сергеев... in ML Boot Camp Official
Пошёл гуглить, но звучит работоспособно, правда надо разобраться хотя бы с одним Бертом, а потом пересчитать про их объединение
источник

АС

Андрей S[A]M Сергеев... in ML Boot Camp Official
Ivan Glebov
А если сделать какую нить сиамскую/триамскую сеть, тоесть три условных берта, на вход одному текст, второму вопрос, третьему ответ, выходы всех конкатенируются, и преобразовываются в вероятность того, что ответ верный
То есть на выход бертам сажаем полносвязную сеть которая байт выход 0 или 1?
источник

IG

Ivan Glebov in ML Boot Camp Official
Посмотри sbert, там сиамский Берт который на парафразах учится
источник

IG

Ivan Glebov in ML Boot Camp Official
Андрей S[A]M Сергеев
То есть на выход бертам сажаем полносвязную сеть которая байт выход 0 или 1?
Ну выходы бертов соединить, и через полносвязный слой с выходом 1, ну кажется что в этом есть смысл)
источник

IG

Ivan Glebov in ML Boot Camp Official
Опять же можно взять один Берт, текст вопрос ответ оборачивать в спец токены, и все опять сводить к выходу 1
источник

АС

Андрей S[A]M Сергеев... in ML Boot Camp Official
Етить, я дурак... Я даже не пытался оборачивать в токены вопрос и ответ... Просто писал "вопрос: " "ответ: " похоже это сыграло свою роль...
источник