Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2021 February 05

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
кроме памяти, конечно
источник

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Аттеншен квадратичную сложность имеет от длины
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
а, ну в этом плане да, т.к. нужно посчитать скор перекрестный
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
А кто-нибудь тестировал Big Bird?
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Он там же такой крутой O(n) и точнее, но только все ванильным пользуются...
источник

T

Timur in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
кстати в гпт2, насколько я помню, позишнал эмбеддинги вообще учатся как обычные эмбеддинги
собсна там строгое ограничение по количеству токенов
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
@Cookie_thief @VadimChashechnikov и извините за еще вопрос тогда - насколько я понял, сколько бы аттеншен-голов у трансформера ни было, их специально выученным кодером сколлапсит в вектор меньшей размерности, который имеет такой же шейп, как у входа слоя.

в illustrated transformer этому далось объяснение в духе не бей лежачего - "так как слой ожидает, что ему дадут по одному вектору эмбеддинга на каждое слово, а не по (количество-голов) векторов, их нужно сколлапсить". при том говорится, что каждая голова аттеншена тренируется отдельно с рандомно инициализированными параметрами, т.е. какой-то магии ассоциированной с головами нет, это простой ансамбль

поэтому вопрос - не происходит ли утери данных при понижении размерности с большого количества голов? и есть ли какие-то причины, почему не передавать в следующий слой в качестве скрытого состояния выхлоп всех голов в виде конкатенированной матрицы?

я так понимаю, одна из причин - это как раз уменьшение количества оптимизируемых параметров, но не в ущерб ли качеству это происходит?
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Не знаю, потестируй, но вообще это же как densenet будет, которая реально быстро разрастается.
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ну почему, размерность инпутов будет такая же, как и размерность аутпутов - просто на самом начальном этапе подавать не просто эмбеддинги начального контекта, а контекст, повторенный N раз по количеству голов
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
т.е. в отличие от densenet, тут не будет лавинообразного увеличения размерности с каждым новым слоем
источник

CT

Cookie Thief in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
toriningen
@Cookie_thief @VadimChashechnikov и извините за еще вопрос тогда - насколько я понял, сколько бы аттеншен-голов у трансформера ни было, их специально выученным кодером сколлапсит в вектор меньшей размерности, который имеет такой же шейп, как у входа слоя.

в illustrated transformer этому далось объяснение в духе не бей лежачего - "так как слой ожидает, что ему дадут по одному вектору эмбеддинга на каждое слово, а не по (количество-голов) векторов, их нужно сколлапсить". при том говорится, что каждая голова аттеншена тренируется отдельно с рандомно инициализированными параметрами, т.е. какой-то магии ассоциированной с головами нет, это простой ансамбль

поэтому вопрос - не происходит ли утери данных при понижении размерности с большого количества голов? и есть ли какие-то причины, почему не передавать в следующий слой в качестве скрытого состояния выхлоп всех голов в виде конкатенированной матрицы?

я так понимаю, одна из причин - это как раз уменьшение количества оптимизируемых параметров, но не в ущерб ли качеству это происходит?
Эксперименты говорят что ок работает, если ставить меньше голов и больше размерность эмбеддинга будет работать хуже
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
toriningen
ну почему, размерность инпутов будет такая же, как и размерность аутпутов - просто на самом начальном этапе подавать не просто эмбеддинги начального контекта, а контекст, повторенный N раз по количеству голов
Сори, я тебя не понял значит
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Сори, я тебя не понял значит
а, нет, я попробовал объяснить, и понял, что это я не так понял
источник

t

toriningen in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ты был прав, получается рост размерности
источник
2021 February 06

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Cookie Thief
Notion, roam research
А я вот ещё нашел  tiddly wiki и obsidian.md. Есть отзывы?
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Насколько я понимаю, notion хостится у них на сервере
источник

I

Ivan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Я видел косвенные признаки, что notion хостится на AWS
источник

D

Denisio in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
косвенных? если ты ткнешь на картинку https://i.tk-chel.ru/denisio/202102/06_132848.png то увидишь что она откроется  с amazonaws
источник

I

Ivan in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ну я это я называл косвенным. Потому что если быть занудой до конца, то они могут в АВС хостить только файлы
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Я в итоге выбрал obsidian md
источник