Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2021 March 28

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
ну мне кажется conv там потому из-за общих причин почему conv а не linear, а трансопзнутый, потому что мы нойз с маленьким измерением выращиваем в картинку, то есть это по сути декодер для нойза, изучающий distribution фичеров картинки. А декодер это ConvolutionalTransposeNet по сути.
На счет траснформера не понял мысль, зачем там двойной слой MLP?
помимо одного оригинального в САГАНе
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
ну мне кажется conv там потому из-за общих причин почему conv а не linear, а трансопзнутый, потому что мы нойз с маленьким измерением выращиваем в картинку, то есть это по сути декодер для нойза, изучающий distribution фичеров картинки. А декодер это ConvolutionalTransposeNet по сути.
На счет траснформера не понял мысль, зачем там двойной слой MLP?
Transposeconv == inductive bias

Mlp, чтобы нейросеть могла думать, иначе она только attention будет делать.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Transposeconv == inductive bias

Mlp, чтобы нейросеть могла думать, иначе она только attention будет делать.
ну а разве одного linear для думания мало, как в САГАНе ?
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
В сагане не один, а несколько, ибо transpose convolution тоже линейный слой
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
В сагане не один, а несколько, ибо transpose convolution тоже линейный слой
ты в счет берешь те же компоненты. В Генераторе без аттеншена тоже конвы, это же к аттеншену никак не имеет отношения.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
В сагане не один, а несколько, ибо transpose convolution тоже линейный слой
и он ровно один после аттеншена.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
сравни с кодом TransGAN
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
В сагане не один, а несколько, ибо transpose convolution тоже линейный слой
+ картинка, которую скинул.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Что это если не FC?
вот тут один ФС после операций с key,query, value
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
а декодере ТрансГана потом идет двойной МЛП
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
На картинке только self-attention, в коде после идёт свертка, и после первого внимания тоже идёт свертка.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
В trans gan обычный трансформер
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
В чем суть дискуссии?, я потерялся
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
где ?
в l4 одна свертка, где ты вторую видишь мне интересно ))
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
в количестве и роли ФФ после аттеншена
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
в l4 одна свертка, где ты вторую видишь мне интересно ))
дальше идет еще один аттеншен и еще одна свертка.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
вот блок ТрансГана
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
зачем в траснформере MLP после аттеншена с одним linear
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Transpose более мощный, поэтому решили ставить один, возможно, два лучше. Ablation по этому поводу в статье нет.
источник