Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2021 March 28

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
ну я эту по крайней мере смотрел.
Понял, просто иногда бывает путаница, если статьи вышли в одно и тоже время.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Явно у них есть ещё что-то, ибо нелинейности в статье не видно.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
У них, как я понял, идея в том, что запрос идёт от большего разрешения к value прошлого разрешения... Интересно, советую посмотреть ещё TransGAN, они делают upsampling с помощью depth to space и используют трансформеры.
у них на выходе сначала один linear, потом двойной в виде mlp.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
а у этого только linear помоему
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
а у этого только linear помоему
Посмотри код, там двойное линеар с релу.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Посмотри код, там двойное линеар с релу.
где ?
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
где ?
last тоже не содержит mlp
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
где ?
это Генератор
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
attention у него и дальше конволюции обычные, для decoding аттенншеного нойза (точнее разфичеренего нойза, не важно)
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
это Генератор
В диксриминаторе также.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Имел в виду, что свертки как линейный слой.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Имел в виду, что свертки как линейный слой.
ну так свертки с кернел сайз 4 это не ФС. Это обычный дальнейший декодинг нойза в картинку.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Поэтому как бы и рождаются три варианта, без, с одним как в статье САГАНА, или как в трансформерах, в декод-слое, потом еще с двойным ФС.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Тоже являются линейным выражением, только с ограниченным полем действия.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Тоже являются линейным выражением, только с ограниченным полем действия.
понятно, но там можно убрать аттеншен, и обычный ГАН.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ilya
понятно, но там можно убрать аттеншен, и обычный ГАН.
убрать, значит оставить свертки как есть, только без attn
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Тоже являются линейным выражением, только с ограниченным полем действия.
но я понял, что ты имеешь ввиду, типо они последовательны,"типо" схожий эффект.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Без, думаю, работать не будет, в сагане у тебя сначала пародия на обычный линейный conv1x1, но после и более мощный transpose convolution. В обычном трансформере тоже самое, только без inductive bias локальности.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Vadim Chashechnikov
Без, думаю, работать не будет, в сагане у тебя сначала пародия на обычный линейный conv1x1, но после и более мощный transpose convolution. В обычном трансформере тоже самое, только без inductive bias локальности.
ну мне кажется conv там потому из-за общих причин почему conv а не linear, а трансопзнутый, потому что мы нойз с маленьким измерением выращиваем в картинку, то есть это по сути декодер для нойза, изучающий distribution фичеров картинки. А декодер это ConvolutionalTransposeNet по сути.
На счет траснформера не понял мысль, зачем там двойной слой MLP?
источник