Size: a a a

AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2

2021 May 25

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
B=1, K=20 у меня например
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
типо 20 раз форввард а потом 20 logits в лосс и step
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
это похоже тоже дает видимый норм результат
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
И bs == 20 в итоге с некоторыми условиями в нормализации.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
то есть предлагаете чуть чуть переписать батч норм, модифицировать под аккамуляция с условием да ?
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Так бс вы так не перепишете, чтобы в нем было аккумуляция. Но можете моментум увеличить, видимо это правильное решение.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Аккумуляция для backprop + более длинный моментум (второе не думаю, что сильно улучшит результат)
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
вот первое с акамулицией лоджитов и потом backward step значительно помогают.
А почему думаете второе не сильно ?
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
если вы конечно о такой аккамуляции.
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
то есть допустим если батч 20 это один форвард, то аккамуляицонный форвард выглдяит как цикл из 20 форвардов по 1 и потом step
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
я это имел ввиду, что помогло.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Разница отсутствует
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
кстати, на счет смены нормализации, разве batchnorm который делает нормализацию относительно измерения channels с batch_size=1 это не одно и то же что instancenorm ?
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
чем отличается, не очень понимаю ?
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
along (H,W) for each channel (InstanceNorm) или Because the Batch Normalization is done over the C dimension, computing statistics on (N, H, W) slices, it’s common terminology to call this Spatial Batch Normalization. (BatchNorm Pytorch)
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
да это в тему было по ходу:
источник

I

Ilya in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
ок, спасибо за mind storming,  если у кого будут еще интересные мысли, буду благодарен
источник
2021 May 26

kk

k k in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Ребят, а как правильно выбрать нейронную сеть или модель машинного обучения под задачу ? Есть какаято методология ?
источник

DK

Danil Kalinin in AI / Big Data / Machine Learning 👮‍♂️ Protected by R2D2
Google. Sota. Trial & error.
источник