
привет всем,
есть небольшой вопрос, скину картинку модели и некоторый код для попытки подтверждения своего подозрения относительно того, как выглядит backward этой модели.
Модель выглядит так.
Я подозреваю, что back происходит и иерархически (что наверное следует и из интуиции), но не до конца уверен из какого кусочка кода технически это происходит (благодаря какому).
Естественно, вы видите ГАН на картинке с конволюционной структурой G-D.
На каждом эпоке тренируется каждый последовательный уровень в этой multiscale конструкции (на самом нижнем уровне есть значительный downsample картинки, поэтому одинаковое персептивное поле смотрит на все меньшие патчи)
Так образом сеть учиться в multiscale coarse-to-fine режиме (сначала изучая из самых грубых патчей общие структуры, потом все больше детали).
Почему думаю что бэк идет иерархически:
1. уменьшив количество конволюционных блоков, вижу что естественно качество reconstruction падает на первых уровнях, но когда модель тренирует на верхних слоях,