Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2021 March 28

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Я бы это посоветовал почитать
я просмотрел, я сами статьи читал, там все более менее понятно, а в овервью этом все равно он не пишет интуицию.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
ну так и на одном линеар в обычном аттеншене, которым заменили традиционные rnn-lstm.
Не понимаю о чё вы
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Не понимаю о чё вы
по мне он этим думает.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
по мне он этим думает.
Авторы решили вставить FC в self-attention в SAGAN, в других статьях такого не видел.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Авторы решили вставить FC в self-attention в SAGAN, в других статьях такого не видел.
в ImageTransformere и TransGANe также (не смотря в декодер лаер с двойным МЛП).
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
В них нет conv 1x1
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
есть Linear
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
у меня два варианта осталось, либо аттеншен с одним линеар, либо декодер слой с последующим МЛП. Попробую посмотрим результат.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
есть Linear
вот к примеру, это из трансгана (после attention_weight*value, в общем один линеар как в САГАНе в других местах, не вру).
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
вот к примеру, это из трансгана (после attention_weight*value, в общем один линеар как в САГАНе в других местах, не вру).
Да, похоже используют линейный слой, ошибся. Но если после него идёт идёт нелинейности, то используют скорее как проекцию.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Да, похоже используют линейный слой, ошибся. Но если после него идёт идёт нелинейности, то используют скорее как проекцию.
проекция в визуальном смысле, это что будет значить ?
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ну вот сделали мы ки кваери сранвнеие, получили аттеншен вейтс, умножили на валю фичеры, что мы во что проектируем.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
мне только понятно что фичеры в фичеры.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Что за сборка происходит этой трансформацией мне не очень понятно
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
посмотрим что там в nlp было
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
проекция в визуальном смысле, это что будет значить ?
Ну мы одно распределение превращаем в другое
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Ну мы одно распределение превращаем в другое
хм..а в статье в которой впервые вводятся эти понятия, статья Attention is All you need, в ней действительно ничего про линеар после не говорится. Я даже нашел аналогию к предыдщуим моделям аттеншена в нлп, и оттуда тоже выглядит, что линеар там нет.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Видимо для зрения добавили. Надо бы найти ablation по этому поводу
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Видимо для зрения добавили. Надо бы найти ablation по этому поводу
что найти 😂?
источник